-
Compteur de contenus
18 428 -
Inscription
-
Dernière visite
-
Jours gagnés
76
Tout ce qui a été posté par Lexington
-
Mauvais journalisme
Lexington a répondu à un sujet de AX-poulpe dans Politique, droit et questions de société
-
Ca fait plusieurs fois que tu es très affirmatif là-dessus, et ça me semble nettement excessif comme affirmations. Tu peux préciser avec des exemples stp (quite à ressortir ce que tu as déjà écrit car ça ne me dit rien perso et je ne trouve pas) ?
-
Et encore mieux, les assurances-vie
-
Ça dépend de ton allocation stratégique. Si tu considères que tu dois avoir autant de liquidités que ça, j’imagine que ca se défend. Techniquement c’est l’argent des enfants il me semble mais risque très faible.
-
Rien ne bat le livret A en France. Mais les plafonds livret A + LDDS sont vite atteints, surtout pour de la liquidité en attente d'ivnestissement immobilier (ce qui peut prendre très longtemps)
-
Liquidité Erwan Seznec Axel Oxenstierna Défiscalisation Superprofits Hasard objectif Géraldine Woessner Retraite par capitalisation Société apprenante Samuel Fitoussi Yves Montenay Logement social Economic Freedom of the World Théodore de Bèze Contribuable C.S. Lewis Technosolutionnisme Chiffre d'affaires Institut Sapiens
-
L'ESTER à 4%, ça ne doit durer que quelques mois. Locker les taux actuels sur un peu plus longtemps, c'est pas idiot. Les anticipations de marché, c'est que les taux BCE vont vite redescendre, il faut penser au delà des 12 prochains mois Sinon @Arturus je ne sais pas trop, je n'ai pas vraiment creusé, mais de loin je les rangeais dans le même paquet qu'Etoro. Sur Degiro je peux choisir de prêter ou non mes titres, on peut chez eux ?
-
Ils lancent aussi des obligs à partir de 1€, ce qui peut être intéressant. Mais le courtier ne me rassure pas totalement. J"hésite
-
Dans le doute sur la décision de l'asso, j'ai demandé la résiliation de la période gratuite à l'issue des 7 jours de test, soit lundi. En me plaignant spécifiquement du prix, dans l'hypothèse où ils ont un système pour te rattraper avec une promotion. J'ai fait générer tous les rapports possibles, qui sont dans la boîte email admin. J'ai de toute façon de quoi bosser un peu dans un premier temps. Mais de manière moins efficace.
-
Premiers résultats encourageants : L'outil SEO nous donne une bien meilleure note Google détecte bien le fichier Robots et confirme que ce qui doit passer passe, et que ce qui ne doit pas passer ne passe pas A suivre : sur les prochains jours surveiller l'indexation par Google (le nombre de pages doit baisser franchement, mais pas non plus totalement (-70%) sur les prochains jours et prochaines semaines suivre l'audience SEO comme le lait sur le feu, comme indicateur d'un problème ou au contraire d'une amélioration sur les prochaines semaines voir si le positionnement dans les SERP évolue, grâce à l'outil enfin, traiter les quelques milliers d'actions manuelles qui restent à faire...
-
GAFA, géants du net et antitrust
Lexington a répondu à un sujet de Tramp dans Science et technologie
Je suis partagé. Je m'explique : C'est clairement un sujet sur lequel l’État peut et va beaucoup trop loin, et il faut bien considérer que le DOJ n'a à peu près aucune limite dans ce qu'il peut te demander. A Google ou à ses concurrents btw. Ne pas oublier que c'est le discours de l'accusation là, l'important c'est de savoir comment ça sera jugé. Plus de détails ici sur qui est qui dans ce procès. Mais ça ne serait pas la première ou la dernière fois que l'accusation balance de la merde. Si le juge abonde dans leur sens là dessus, ça serait par contre inquiétant La pratique de Google décrite dans l'article est évidemment saine d'un point de vue gestion du risque. Ils auraient même pu le faire mieux j'ai l'impression*, il faut remplacer les mots touchy par des mots les plus généralistes possibles, et souvent les plus courts, pour compliquer la vie d'une éventuelle autorité qui irait farfouiller dans tes archives. Ça me semble bien débile d'avoir dans les instructions officielles, littéralement le mot antitrust, comme l'écrit l'article. Alors que tu aurais appelé ça AT, ça compliquait nettement les choses pour le DOJ. En tout cas, comme actionnaire au moins , je suis heureux de savoir qu'ils gèrent leur risque, et depuis 20 ans se préparent au risque antitrust Je trouve ça malgré tout débile de communiquer dessus de manière aussi active. Tu le fais à l'oral, pas avec un bon gros mémo à toute la boite, avec tous les mots clefs qui clignotent. Peut-être parce que je viens d'un univers de plus petite boîte, où c'est faisable à l'oral tout ça. Mais quand même, ça me semble avoir été un peu naïf dans la façon de gérer ça. * ne pas exclure le scénario le plus probable que le journaliste a mal transcrit certaines chose, ou mal compris. -
Merci !!! Je suis dans les prochains jours pour valider que tout fonctionne comme prévu.
-
Friendly reminder @h16 Si/quand tu as une dispo, normalement c'est le principal levier qu'on a sur le SEO WL, et c'est one shot
-
J'utilise de temps en temps chatGPT pour compléter des articles. Attention, il continue à inventer totalement des trucs. Du genre un Alfredo Debreu qui n'a jamais existé, pour un article sur l'école de Lausanne A utiliser donc, mais avec relecture systématique
-
Sinon, voici le fichier robots.txt, testé en ligne sur https://technicalseo.com/tools/robots-txt/ Il y a une première partie reprise de wikipedia, pour dégager des bots trop intrusifs, j'imagine que ça doit soulager les serveurs donc je l'ai laissé. La 2e partie ce sont les règles pour exclure les version historisées des articles (versions intermédiaires comme je disais), ainsi que les pages de diff, en gros tout ce qui fait doublon avec l'article principal. J'ai testé que les pages principales restaient indexées d'après le site de test. Et qu'à l'inverse les pages créant du duplicate content étaient bien bloquées. Preneur d'une autre paire d'yeux si quelqu'un peut tester aussi sur technical seo.com, en ajoutant le code et en entrant des pages aléatoires de WL On est bon de mon côté, le fichier peut être mis à la racine de wikiberal par un admin ( @h16j'imagine) # robots.txt for http://wikiberal.org/ # # # http://mj12bot.com/ User-agent: MJ12bot Disallow: / User-agent: Orthogaffe Disallow: # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /w/ Disallow: /api/ Disallow: /trap/ Disallow: /wiki/Special: Disallow: /wiki/Special%3A # # #----------------------------------------------------------# # # # # <pre> # # partie robots.txt pour https://wikiberal.org/ # # Merci de vérifier chaque modification avec un vérificateur de syntaxe # comme # Entrez https://wikiberal.org/robots.txt comme URL à vérifier. # # ------------------------------------------------------------------------ # Disallow: /wiki/Sp%C3%A9cial: Disallow: /wiki/Discussion Disallow: /index.php?title=*&action=history Disallow: /index.php?title=*&diff=*&oldid=* Disallow: /index.php?title=*&printable=yes Disallow: /index.php?title=*&oldid=* Disallow: /wiki/Spécial:MobileDiff/ Disallow: /index.php?title=*&mobileaction=toggle_view_desktop Disallow: /index.php?curid=*&oldid= Disallow: /index.php?title=*&diff=prev&oldid= Disallow: /index.php?oldid= Disallow: /wiki/MediaWiki:Spam-blacklist # : → %3A Disallow: /wiki/Sp%C3%A9cial%3A # </pre>
-
Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste. On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière
-
Premiers résultats Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ? Pas mal de liens internes morts, présents sur toutes les pages, ce qui nuisait à l'indexation. J'ai corrigé l'essentiel Le recours à des = xxx = au lieu de == xxx == par Ludovic Sesim est un gros problème car il crée une deuxième balise titre. Je lui ai indiqué Liste des pages à faible contenu, qui dégradent la qualité du site (en particulier toutes les pages dates créés avec zero contenu). Il faudrait désindexer une large partie, en automatique si possible, via robots.txt La qualité du site de manière globale est correcte, sans être folle non plus. Pas mal de leviers sur lesquels on peut agir
-
Merci. Il y a une semaine d'essai gratuit. Pour faciliter la réponse, je vais tester avec ma CB et résilier avant la fin. Je vous ferai un retour. Je mets ça sur le SSO admin@liberaux.org comme ça le bureau peut aussi tester.
-
Guerre en Ukraine : Impacts dans le reste du monde
Lexington a répondu à un sujet de Lameador dans Europe et international
Ça parle pas mal d'énergie (ce qui serait cohérent, vu qu'ils n'ont pas encore de gazoducs avec Russie et Inde (?)), mais je serais curieux aussi de connaître la part des importations d'armes. -
L'Inde, dit Go : une terre de contrastes en évolution accélérée.
Lexington a répondu à un sujet de FabriceM dans Europe et international
https://x.com/stephanefrappat/status/1700903968048611497?s=46 Les limites de la de-dollarisation : l’Inde achète du pétrole à la Russie mais uniquement si c’est en roupies. Résultat la Russie a des roupies… dont elle ne peut rien faire et qu’elle doit réinvestir en Inde 😅 -
Rassemblement national, el-italiano93 l'avenir ?
Lexington a répondu à un sujet de Adrian dans Politique, droit et questions de société
Ce guignol c'est le fond de cuve de Twitter. Ce ne serait probablement pas si mal de ne pas lui faire de pub- 3 229 réponses
-
- 1
-
-
- front national
- extreme droite
-
(et 3 en plus)
Étiqueté avec :
-
Oui justement je l’ai réécrit celui là.
-
Un des sujets qui me semble problématique, et ne sera pas mis en avant par un audit : la nouvelle présentation des résultats dans Google fait que l’on voit juste le titre de l’article. Par exeemple, la page fonctions régaliennes apparaît juste « Fonctiosn régaliennes ». Avant c’était fonctions régaliennes - Wikiberal qui faisait très proche de Wikipedia imho une des priorités, que je déploie, c’est d’utiliser l’extension SEO pour apparaître avec un titre personnalisé. Qui très souvent inclue le mot définition, terme le plus cherche pour les concepts J’ai commencé à travailler en ce sens, avec documentation des pages dans un Excel pour voir si ça change la tendance
-
Toujours bien de se comparer oui, je suis preneur si tu as des contacts à même de nous éclairer là-dessus. Perso je n'en ai pas Mais étant donné qu'il ne semble y avoir aucun contributeurs actifs et qu'ils font un trafic 5 fois inférieur au notre, je suis très dubitatif sur le fait de s'inspirer de leurs pratiques, et il me semble intéressant de se comparer aussi aux meilleurs via audit automatisé (SEMRush) ou vrai audit (+cher). https://www.similarweb.com/fr/website/wiki.mises.org/#overview
-
Et un grand merci à @Dardanus qui est le premier à avoir créé un article manquant
