Sekonda Posted September 9, 2023 Report Share Posted September 9, 2023 il y a 13 minutes, Lexington a dit : a nouvelle présentation des résultats dans Google As-tu un exemple ? A l'instant, j'ai ça: Déploiement progressif ? Link to comment
Lexington Posted September 9, 2023 Report Share Posted September 9, 2023 il y a une heure, Sekonda a dit : As-tu un exemple ? A l'instant, j'ai ça: Déploiement progressif ? Oui justement je l’ai réécrit celui là. 1 Link to comment
Rincevent Posted September 10, 2023 Report Share Posted September 10, 2023 Le 09/09/2023 à 09:48, Lexington a dit : Je ne sais pas trop si tu regardes la demande @Rincevent? Petite relance amicale dans le doute. Ping éventuellement à @Bézoukhov aussi. Pour 500€ je pense qu'on a une belle opportunité pour déjà essayer de comprendre ce qui bugue, et surtout pourquoi pas remettre en croissance au moins un des sites. Même si la décision n'est pas chez moi, je suis convaincu que ça vaut le coup de regarder sérieusement ça On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre. 1 Link to comment
Lexington Posted September 11, 2023 Report Share Posted September 11, 2023 Il y a 10 heures, Rincevent a dit : On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre. Merci. Il y a une semaine d'essai gratuit. Pour faciliter la réponse, je vais tester avec ma CB et résilier avant la fin. Je vous ferai un retour. Je mets ça sur le SSO admin@liberaux.org comme ça le bureau peut aussi tester. Link to comment
Lexington Posted September 11, 2023 Report Share Posted September 11, 2023 Premiers résultats Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ? Pas mal de liens internes morts, présents sur toutes les pages, ce qui nuisait à l'indexation. J'ai corrigé l'essentiel Le recours à des = xxx = au lieu de == xxx == par Ludovic Sesim est un gros problème car il crée une deuxième balise titre. Je lui ai indiqué Liste des pages à faible contenu, qui dégradent la qualité du site (en particulier toutes les pages dates créés avec zero contenu). Il faudrait désindexer une large partie, en automatique si possible, via robots.txt La qualité du site de manière globale est correcte, sans être folle non plus. Pas mal de leviers sur lesquels on peut agir 1 Link to comment
Rübezahl Posted September 12, 2023 Report Share Posted September 12, 2023 Le 11/09/2023 à 12:23, Lexington a dit : Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ? qu'appelle tu "pages intermédiaires" ? Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces. J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine. Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines. Mais je suis ce fil. J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD. Plutôt que via un fichier robots.txt dont la maintenance va reposer sur une seule personne. Link to comment
Lexington Posted September 12, 2023 Report Share Posted September 12, 2023 il y a une heure, Rübezahl a dit : qu'appelle tu "pages intermédiaires" ? Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces. J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine. Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines. Mais je suis ce fil. J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD. Plutôt que via un fichier robots.txt dans la maintenance va reposer sur une seule personne. Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste. On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière Link to comment
Lexington Posted September 12, 2023 Report Share Posted September 12, 2023 Il y a 7 heures, Lexington a dit : Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste. On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière Sinon, voici le fichier robots.txt, testé en ligne sur https://technicalseo.com/tools/robots-txt/ Il y a une première partie reprise de wikipedia, pour dégager des bots trop intrusifs, j'imagine que ça doit soulager les serveurs donc je l'ai laissé. La 2e partie ce sont les règles pour exclure les version historisées des articles (versions intermédiaires comme je disais), ainsi que les pages de diff, en gros tout ce qui fait doublon avec l'article principal. J'ai testé que les pages principales restaient indexées d'après le site de test. Et qu'à l'inverse les pages créant du duplicate content étaient bien bloquées. Preneur d'une autre paire d'yeux si quelqu'un peut tester aussi sur technical seo.com, en ajoutant le code et en entrant des pages aléatoires de WL On est bon de mon côté, le fichier peut être mis à la racine de wikiberal par un admin ( @h16j'imagine) # robots.txt for http://wikiberal.org/ # # # http://mj12bot.com/ User-agent: MJ12bot Disallow: / User-agent: Orthogaffe Disallow: # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /w/ Disallow: /api/ Disallow: /trap/ Disallow: /wiki/Special: Disallow: /wiki/Special%3A # # #----------------------------------------------------------# # # # # <pre> # # partie robots.txt pour https://wikiberal.org/ # # Merci de vérifier chaque modification avec un vérificateur de syntaxe # comme # Entrez https://wikiberal.org/robots.txt comme URL à vérifier. # # ------------------------------------------------------------------------ # Disallow: /wiki/Sp%C3%A9cial: Disallow: /wiki/Discussion Disallow: /index.php?title=*&action=history Disallow: /index.php?title=*&diff=*&oldid=* Disallow: /index.php?title=*&printable=yes Disallow: /index.php?title=*&oldid=* Disallow: /wiki/Spécial:MobileDiff/ Disallow: /index.php?title=*&mobileaction=toggle_view_desktop Disallow: /index.php?curid=*&oldid= Disallow: /index.php?title=*&diff=prev&oldid= Disallow: /index.php?oldid= Disallow: /wiki/MediaWiki:Spam-blacklist # : → %3A Disallow: /wiki/Sp%C3%A9cial%3A # </pre> 1 Link to comment
Lexington Posted September 14, 2023 Report Share Posted September 14, 2023 Friendly reminder @h16 Si/quand tu as une dispo, normalement c'est le principal levier qu'on a sur le SEO WL, et c'est one shot Link to comment
h16 Posted September 15, 2023 Report Share Posted September 15, 2023 Voilà : j'ai posé le robots.txt à la racine : https://www.wikiberal.org/robots.txt 1 1 Link to comment
Lexington Posted September 15, 2023 Report Share Posted September 15, 2023 il y a 33 minutes, h16 a dit : Voilà : j'ai posé le robots.txt à la racine : https://www.wikiberal.org/robots.txt Merci !!! Je suis dans les prochains jours pour valider que tout fonctionne comme prévu. Link to comment
Lexington Posted September 15, 2023 Report Share Posted September 15, 2023 Premiers résultats encourageants : L'outil SEO nous donne une bien meilleure note Google détecte bien le fichier Robots et confirme que ce qui doit passer passe, et que ce qui ne doit pas passer ne passe pas A suivre : sur les prochains jours surveiller l'indexation par Google (le nombre de pages doit baisser franchement, mais pas non plus totalement (-70%) sur les prochains jours et prochaines semaines suivre l'audience SEO comme le lait sur le feu, comme indicateur d'un problème ou au contraire d'une amélioration sur les prochaines semaines voir si le positionnement dans les SERP évolue, grâce à l'outil enfin, traiter les quelques milliers d'actions manuelles qui restent à faire... 1 Link to comment
Lexington Posted September 16, 2023 Report Share Posted September 16, 2023 Dans le doute sur la décision de l'asso, j'ai demandé la résiliation de la période gratuite à l'issue des 7 jours de test, soit lundi. En me plaignant spécifiquement du prix, dans l'hypothèse où ils ont un système pour te rattraper avec une promotion. J'ai fait générer tous les rapports possibles, qui sont dans la boîte email admin. J'ai de toute façon de quoi bosser un peu dans un premier temps. Mais de manière moins efficace. 1 Link to comment
Lexington Posted September 21, 2023 Report Share Posted September 21, 2023 Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine. Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles). A suivre sur les prochaines semaines pour confirmer. 2 Link to comment
Lexington Posted October 3, 2023 Report Share Posted October 3, 2023 Le 21/09/2023 à 15:55, Lexington a dit : Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine. Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles). A suivre sur les prochaines semaines pour confirmer. Première fois où on repasse en croissance (pour le coup, fruit de l'écriture de l'article Samuel Fitoussi, qui a super bien marché avec ses passages médias). Ca souligne le rôle du contenu dans le succès du site. Pas que des sujets techniques. Malgré tout l'amélioration semble se maintenir (le taux de décroissance diminue nettement), même si on est qu'au début (on est à environ 3,5 fois moins d'audience qu'en 2015, 2023 est extrapolé) Il va falloir continuer à optimiser pas mal de choses pour remonter. Link to comment
Lexington Posted October 5, 2023 Report Share Posted October 5, 2023 # robots.txt for http://wikiberal.org/ # # # http://mj12bot.com/ User-agent: MJ12bot Disallow: / User-agent: Orthogaffe Disallow: # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /w/ Disallow: /api/ Disallow: /index/ Disallow: /trap/ Disallow: /wiki/Special: Disallow: /wiki/Spécial: Disallow: /wiki/Special%3A # # #----------------------------------------------------------# # # # # <pre> # # partie robots.txt pour https://wikiberal.org/ # # Merci de vérifier chaque modification avec un vérificateur de syntaxe # comme # Entrez https://wikiberal.org/robots.txt comme URL à vérifier. # # ------------------------------------------------------------------------ # Disallow: /wiki/Sp%C3%A9cial: Disallow: /wiki/Spécial: Disallow: /wiki/Special: Disallow: /wiki/Spécial:MobileDiff/ Disallow: /index.php?title=Spécial:Pages_liées/ Disallow: /index.php* Disallow: /index.php?title=*&mobileaction=toggle_view_mobile Disallow: /index.php?title=*&mobileaction=toggle_view_desktop Disallow: /index.php?title=*&action=history Disallow: /index.php?title=*&diff=*&oldid=* Disallow: /index.php?title=*&printable=yes Disallow: /index.php?title=*&oldid=* Disallow: /index.php?curid=*&oldid= Disallow: /index.php?title=*&diff=prev&oldid= Disallow: /index.php?oldid= Disallow: /wiki/Discussion Disallow: /wiki/MediaWiki:Spam-blacklist # : → %3A Disallow: /wiki/Sp%C3%A9cial%3A # </pre> Il reste encore quelques pages à bloquer via la page robots.txt @h16tu pourras à l'occasion modifier le fichier ? Merci par avance Link to comment
Lexington Posted October 25, 2023 Report Share Posted October 25, 2023 Quelques stats (avec 90%+ de la base couverte) Les "économistes" sont toutes ces pages sur des think tankers, économistes contemporains du monde entier peu connus, etc. Largement l'oeuvre de Ludovic Sesim. Vous verrez le disconnect énorme entre ce que Wikiberal couvre en quantité d'articles ("économistes", pages standard sur les années ou jour de l'année, et ce que les gens lisent (des articles sur les concepts, ou sur les auteurs de premier plan) Sinon l'évolution du nombre de nouveaux articles par an, avec un split par auteurs Link to comment
Lexington Posted November 28, 2023 Report Share Posted November 28, 2023 Bon, l'audience s'améliore lentement mais le sujet de l'apparence des résultats dans les SERP est un sujet de long terme pour la résolution. Il faut en gros se taper tous les articles pour que le titre n'apparaisse pas comme ça Mais comme ça => Titre adapté pour donner envie de cliquer et être positionné sur les requêtes les plus fréquentes, photo illustrative, qui attire l'oeil. Le résumé Google, on ne le choisit pas malheureusement, mais il faut relire pour avoir une phrase simple et courte qui résume l'article. Vous pouvez aider en ajoutant des photos, voire pour ceux qui maitrisent bien le SEO, en demandant les droits nécessaires. Je suis réticent à ouvrir ça de manière trop large. Link to comment
Lexington Posted December 15, 2023 Report Share Posted December 15, 2023 Un article de @Dardanus a des pics d'audience assez erratiques, que je ne m'explique pas, celui sur Sherlock Holmes Si quelqu'un comprend pourquoi... Link to comment
Lexington Posted January 10 Report Share Posted January 10 J'ai créé une demi douzaine d'articles sur les libéraux médiatiques du moment, pour générer du trafic quand ils passent sur les plateaux. Ca marche plutôt pas mal, que ce soit le premier niveau (le trafic reprend du poil de la bête), mais aussi le second (cela tire vers le haut les articles de fond qui sont liés à ces articles au contenu très périssable). Exemple avec Lisa Kamen-Hirsig, qui fait monter Bastiat, le chèque éducation ou l'égalitarisme, toutes ces pages qui sont liées depuis son article. Encourageant, et une idée facile à réaliser si vous pensez à des libéraux de plateau qui n'ont pas leur article WL 2 Link to comment
Lexington Posted April 2 Report Share Posted April 2 Mazel Tov, après un changement de tendance amorcé en février, on est repassés en croissance YoY en mars 2024 La multitude de petits chantiers commence enfin à porter ses fruits semblerait-il. 1 2 Link to comment
Bézoukhov Posted April 2 Report Share Posted April 2 Il y a 8 heures, Lexington a dit : La multitude de petits chantiers commence enfin à porter ses fruits semblerait-il. Au fait, vu la situation de CP qui fait que j'ai plus de sorties de sous et la rentrée de sous que tu connais, y a sûrement moyen de filer un peu de sous sur des chantiers (soit d'analytics, soit de freelance) si tu vois l'intérêt. Link to comment
Lexington Posted April 3 Report Share Posted April 3 Il y a 11 heures, Bézoukhov a dit : Au fait, vu la situation de CP qui fait que j'ai plus de sorties de sous et la rentrée de sous que tu connais, y a sûrement moyen de filer un peu de sous sur des chantiers (soit d'analytics, soit de freelance) si tu vois l'intérêt. Ah alors je réitère ma demande d'activer de temps en temps un scan automatisé de WL par SEMRush pour 250$ (mensuels normalement, mais que je traiterai les exports dans le temps, en désactivant la facturation pour ne la remettre que de temps en temps afin de voir l'effet des corrections) Link to comment
Lexington Posted April 8 Report Share Posted April 8 Un release de l'ago de search qui nous a fait très mal : https://status.search.google.com/incidents/Cou8Tr74r7EXNthuEsaG En images sur l'impact. Le drop de la courbe en pointillés est le 16 mars 2023, immédiatement après la release. @Wayto une piste sur ce qu'il y avait dans ce core update ? Malheureusement ça nuance un peu mes propos sur l'amélioration récente, même si une vraie accélération est visible vs les mois précédents. Une partie de l'amélioration est réelle, l'autre est de l'effet de base Link to comment
Rübezahl Posted April 9 Report Share Posted April 9 Le 15/12/2023 à 18:07, Lexington a dit : Un article de @Dardanus a des pics d'audience assez erratiques, que je ne m'explique pas, celui sur Sherlock Holmes Si quelqu'un comprend pourquoi... quand il y a un épisode tv ou un film sur un sujet, une part de spectateurs fait une recherche google pendant ou juste après. Link to comment
Wayto Posted April 9 Report Share Posted April 9 Le 08/04/2024 à 22:29, Lexington a dit : @Wayto une piste sur ce qu'il y avait dans ce core update ? Je spécule que le retrait de page experience system, the mobile-friendly system, page speed system & secure site system de https://developers.google.com/search/docs/appearance/ranking-systems-guide?hl=fr a impacté le ranking puisque c'étaient bel et bien des ranking systems, et non simplement des signaux. L'accent a été mis fortement - de nouveau - sur EEAT, et topical authority. On le savait, mais c'est la première fois que Google l'écrivait noir sur blanc comme un ranking factor. Les gros sites (certains diraient mainstream) ont profité très positiviement de l'update. De même : Citation Our system looks at how original reporting (for example the publisher that first brokes a story) is cited by other publishers to understand how a publication is infuential and authoritative on a topic. Il est probable que les reposts et traductions qui vous aidaient fortement pour le ranking ont été corrigées / sévèrement pénalisées. Gros coup de marteau sur les PBN, certains conseillaient de trier et retirer manuellement tous les backlinks suspicieux / avec une faible DA. Vu l'historique de Contrepoints en tant qu'agrégateur de blogs, c'est peut-être ça ? Qui vérifiait et triait les backlinks ? A quelle fréquence ? Edit : pas vu qu'on était dans le club Wikibéral. Link to comment
Lexington Posted April 30 Report Share Posted April 30 On semble reparti en croissance YoY (28 derniers jours vs 28 derniers jours N-1) +10% environ sur les clics et les impressions dans Google. Ce n'est pas très visible là, mais c'est surtout une amélioration du taux de clic dans Google via une réécriture des balises titres faite manuellement via le nouveau plugin Link to comment
Lexington Posted May 7 Report Share Posted May 7 La croissance se confirme en hausse (+26% sur les sessions en avril 2024 vs avril 2023) même si la route sera longue pour revenir aux scores des années passées. L'impact des réécritures SEO est visible, la croissance est bien plus rapide sur les articles réécrits Lecture : quand un article non réécrit croît de x%, un article réécrit SEO croît de (x+43)% en février 2024. Les améliorations SEO ont été réalisées à partir de Q2-23 1 Link to comment
Recommended Posts