Sekonda Posted September 9 Report Share Posted September 9 il y a 13 minutes, Lexington a dit : a nouvelle présentation des résultats dans Google As-tu un exemple ? A l'instant, j'ai ça: Déploiement progressif ? Link to comment
Lexington Posted September 9 Report Share Posted September 9 il y a une heure, Sekonda a dit : As-tu un exemple ? A l'instant, j'ai ça: Déploiement progressif ? Oui justement je l’ai réécrit celui là. 1 Link to comment
Rincevent Posted September 10 Report Share Posted September 10 Le 09/09/2023 à 09:48, Lexington a dit : Je ne sais pas trop si tu regardes la demande @Rincevent? Petite relance amicale dans le doute. Ping éventuellement à @Bézoukhov aussi. Pour 500€ je pense qu'on a une belle opportunité pour déjà essayer de comprendre ce qui bugue, et surtout pourquoi pas remettre en croissance au moins un des sites. Même si la décision n'est pas chez moi, je suis convaincu que ça vaut le coup de regarder sérieusement ça On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre. 1 Link to comment
Lexington Posted September 11 Report Share Posted September 11 Il y a 10 heures, Rincevent a dit : On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre. Merci. Il y a une semaine d'essai gratuit. Pour faciliter la réponse, je vais tester avec ma CB et résilier avant la fin. Je vous ferai un retour. Je mets ça sur le SSO admin@liberaux.org comme ça le bureau peut aussi tester. Link to comment
Lexington Posted September 11 Report Share Posted September 11 Premiers résultats Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ? Pas mal de liens internes morts, présents sur toutes les pages, ce qui nuisait à l'indexation. J'ai corrigé l'essentiel Le recours à des = xxx = au lieu de == xxx == par Ludovic Sesim est un gros problème car il crée une deuxième balise titre. Je lui ai indiqué Liste des pages à faible contenu, qui dégradent la qualité du site (en particulier toutes les pages dates créés avec zero contenu). Il faudrait désindexer une large partie, en automatique si possible, via robots.txt La qualité du site de manière globale est correcte, sans être folle non plus. Pas mal de leviers sur lesquels on peut agir 1 Link to comment
Rübezahl Posted September 12 Report Share Posted September 12 Le 11/09/2023 à 12:23, Lexington a dit : Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ? qu'appelle tu "pages intermédiaires" ? Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces. J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine. Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines. Mais je suis ce fil. J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD. Plutôt que via un fichier robots.txt dont la maintenance va reposer sur une seule personne. Link to comment
Lexington Posted September 12 Report Share Posted September 12 il y a une heure, Rübezahl a dit : qu'appelle tu "pages intermédiaires" ? Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces. J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine. Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines. Mais je suis ce fil. J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD. Plutôt que via un fichier robots.txt dans la maintenance va reposer sur une seule personne. Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste. On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière Link to comment
Lexington Posted September 12 Report Share Posted September 12 Il y a 7 heures, Lexington a dit : Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste. On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière Sinon, voici le fichier robots.txt, testé en ligne sur https://technicalseo.com/tools/robots-txt/ Il y a une première partie reprise de wikipedia, pour dégager des bots trop intrusifs, j'imagine que ça doit soulager les serveurs donc je l'ai laissé. La 2e partie ce sont les règles pour exclure les version historisées des articles (versions intermédiaires comme je disais), ainsi que les pages de diff, en gros tout ce qui fait doublon avec l'article principal. J'ai testé que les pages principales restaient indexées d'après le site de test. Et qu'à l'inverse les pages créant du duplicate content étaient bien bloquées. Preneur d'une autre paire d'yeux si quelqu'un peut tester aussi sur technical seo.com, en ajoutant le code et en entrant des pages aléatoires de WL On est bon de mon côté, le fichier peut être mis à la racine de wikiberal par un admin ( @h16j'imagine) # robots.txt for http://wikiberal.org/ # # # http://mj12bot.com/ User-agent: MJ12bot Disallow: / User-agent: Orthogaffe Disallow: # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /w/ Disallow: /api/ Disallow: /trap/ Disallow: /wiki/Special: Disallow: /wiki/Special%3A # # #----------------------------------------------------------# # # # # <pre> # # partie robots.txt pour https://wikiberal.org/ # # Merci de vérifier chaque modification avec un vérificateur de syntaxe # comme # Entrez https://wikiberal.org/robots.txt comme URL à vérifier. # # ------------------------------------------------------------------------ # Disallow: /wiki/Sp%C3%A9cial: Disallow: /wiki/Discussion Disallow: /index.php?title=*&action=history Disallow: /index.php?title=*&diff=*&oldid=* Disallow: /index.php?title=*&printable=yes Disallow: /index.php?title=*&oldid=* Disallow: /wiki/Spécial:MobileDiff/ Disallow: /index.php?title=*&mobileaction=toggle_view_desktop Disallow: /index.php?curid=*&oldid= Disallow: /index.php?title=*&diff=prev&oldid= Disallow: /index.php?oldid= Disallow: /wiki/MediaWiki:Spam-blacklist # : → %3A Disallow: /wiki/Sp%C3%A9cial%3A # </pre> 1 Link to comment
Lexington Posted September 14 Report Share Posted September 14 Friendly reminder @h16 Si/quand tu as une dispo, normalement c'est le principal levier qu'on a sur le SEO WL, et c'est one shot Link to comment
h16 Posted September 15 Report Share Posted September 15 Voilà : j'ai posé le robots.txt à la racine : https://www.wikiberal.org/robots.txt 1 1 Link to comment
Lexington Posted September 15 Report Share Posted September 15 il y a 33 minutes, h16 a dit : Voilà : j'ai posé le robots.txt à la racine : https://www.wikiberal.org/robots.txt Merci !!! Je suis dans les prochains jours pour valider que tout fonctionne comme prévu. Link to comment
Lexington Posted September 15 Report Share Posted September 15 Premiers résultats encourageants : L'outil SEO nous donne une bien meilleure note Google détecte bien le fichier Robots et confirme que ce qui doit passer passe, et que ce qui ne doit pas passer ne passe pas A suivre : sur les prochains jours surveiller l'indexation par Google (le nombre de pages doit baisser franchement, mais pas non plus totalement (-70%) sur les prochains jours et prochaines semaines suivre l'audience SEO comme le lait sur le feu, comme indicateur d'un problème ou au contraire d'une amélioration sur les prochaines semaines voir si le positionnement dans les SERP évolue, grâce à l'outil enfin, traiter les quelques milliers d'actions manuelles qui restent à faire... 1 Link to comment
Lexington Posted September 16 Report Share Posted September 16 Dans le doute sur la décision de l'asso, j'ai demandé la résiliation de la période gratuite à l'issue des 7 jours de test, soit lundi. En me plaignant spécifiquement du prix, dans l'hypothèse où ils ont un système pour te rattraper avec une promotion. J'ai fait générer tous les rapports possibles, qui sont dans la boîte email admin. J'ai de toute façon de quoi bosser un peu dans un premier temps. Mais de manière moins efficace. 1 Link to comment
Lexington Posted September 21 Report Share Posted September 21 Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine. Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles). A suivre sur les prochaines semaines pour confirmer. 2 Link to comment
Lexington Posted October 3 Report Share Posted October 3 Le 21/09/2023 à 15:55, Lexington a dit : Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine. Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles). A suivre sur les prochaines semaines pour confirmer. Première fois où on repasse en croissance (pour le coup, fruit de l'écriture de l'article Samuel Fitoussi, qui a super bien marché avec ses passages médias). Ca souligne le rôle du contenu dans le succès du site. Pas que des sujets techniques. Malgré tout l'amélioration semble se maintenir (le taux de décroissance diminue nettement), même si on est qu'au début (on est à environ 3,5 fois moins d'audience qu'en 2015, 2023 est extrapolé) Il va falloir continuer à optimiser pas mal de choses pour remonter. Link to comment
Lexington Posted October 5 Report Share Posted October 5 # robots.txt for http://wikiberal.org/ # # # http://mj12bot.com/ User-agent: MJ12bot Disallow: / User-agent: Orthogaffe Disallow: # Crawlers that are kind enough to obey, but which we'd rather not have # unless they're feeding search engines. User-agent: UbiCrawler Disallow: / User-agent: DOC Disallow: / User-agent: Zao Disallow: / # Some bots are known to be trouble, particularly those designed to copy # entire sites. Please obey robots.txt. User-agent: sitecheck.internetseer.com Disallow: / User-agent: Zealbot Disallow: / User-agent: MSIECrawler Disallow: / User-agent: SiteSnagger Disallow: / User-agent: WebStripper Disallow: / User-agent: WebCopier Disallow: / User-agent: Fetch Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: WebZIP Disallow: / User-agent: linko Disallow: / User-agent: HTTrack Disallow: / User-agent: Xenu Disallow: / User-agent: larbin Disallow: / User-agent: libwww Disallow: / User-agent: ZyBORG Disallow: / User-agent: Download Ninja Disallow: / # Misbehaving: requests much too fast: User-agent: fast Disallow: / # # Sorry, wget in its recursive mode is a frequent problem. # Please read the man page and use it properly; there is a # --wait option you can use to set the delay between hits, # for instance. # User-agent: wget Disallow: / # # The 'grub' distributed client has been *very* poorly behaved. # User-agent: grub-client Disallow: / # # Doesn't follow robots.txt anyway, but... # User-agent: k2spider Disallow: / # # Hits many times per second, not acceptable # http://www.nameprotect.com/botinfo.html User-agent: NPBot Disallow: / # A capture bot, downloads gazillions of pages with no public benefit # http://www.webreaper.net/ User-agent: WebReaper Disallow: / User-agent: * Disallow: /w/ Disallow: /api/ Disallow: /index/ Disallow: /trap/ Disallow: /wiki/Special: Disallow: /wiki/Spécial: Disallow: /wiki/Special%3A # # #----------------------------------------------------------# # # # # <pre> # # partie robots.txt pour https://wikiberal.org/ # # Merci de vérifier chaque modification avec un vérificateur de syntaxe # comme # Entrez https://wikiberal.org/robots.txt comme URL à vérifier. # # ------------------------------------------------------------------------ # Disallow: /wiki/Sp%C3%A9cial: Disallow: /wiki/Spécial: Disallow: /wiki/Special: Disallow: /wiki/Spécial:MobileDiff/ Disallow: /index.php?title=Spécial:Pages_liées/ Disallow: /index.php* Disallow: /index.php?title=*&mobileaction=toggle_view_mobile Disallow: /index.php?title=*&mobileaction=toggle_view_desktop Disallow: /index.php?title=*&action=history Disallow: /index.php?title=*&diff=*&oldid=* Disallow: /index.php?title=*&printable=yes Disallow: /index.php?title=*&oldid=* Disallow: /index.php?curid=*&oldid= Disallow: /index.php?title=*&diff=prev&oldid= Disallow: /index.php?oldid= Disallow: /wiki/Discussion Disallow: /wiki/MediaWiki:Spam-blacklist # : → %3A Disallow: /wiki/Sp%C3%A9cial%3A # </pre> Il reste encore quelques pages à bloquer via la page robots.txt @h16tu pourras à l'occasion modifier le fichier ? Merci par avance Link to comment
Lexington Posted October 25 Report Share Posted October 25 Quelques stats (avec 90%+ de la base couverte) Les "économistes" sont toutes ces pages sur des think tankers, économistes contemporains du monde entier peu connus, etc. Largement l'oeuvre de Ludovic Sesim. Vous verrez le disconnect énorme entre ce que Wikiberal couvre en quantité d'articles ("économistes", pages standard sur les années ou jour de l'année, et ce que les gens lisent (des articles sur les concepts, ou sur les auteurs de premier plan) Sinon l'évolution du nombre de nouveaux articles par an, avec un split par auteurs Link to comment
Lexington Posted Tuesday at 09:55 AM Report Share Posted Tuesday at 09:55 AM Bon, l'audience s'améliore lentement mais le sujet de l'apparence des résultats dans les SERP est un sujet de long terme pour la résolution. Il faut en gros se taper tous les articles pour que le titre n'apparaisse pas comme ça Mais comme ça => Titre adapté pour donner envie de cliquer et être positionné sur les requêtes les plus fréquentes, photo illustrative, qui attire l'oeil. Le résumé Google, on ne le choisit pas malheureusement, mais il faut relire pour avoir une phrase simple et courte qui résume l'article. Vous pouvez aider en ajoutant des photos, voire pour ceux qui maitrisent bien le SEO, en demandant les droits nécessaires. Je suis réticent à ouvrir ça de manière trop large. Link to comment
Recommended Posts