Aller au contenu

Club ouvert  ·  31 membres

Wikibéral

Stats, audimat et SEO


Copeau

Messages recommandés

Le 09/09/2023 à 09:48, Lexington a dit :

Je ne sais pas trop si tu regardes la demande @Rincevent? Petite relance amicale dans le doute. Ping éventuellement à @Bézoukhov aussi.

 

Pour 500€ je pense qu'on a une belle opportunité pour déjà essayer de comprendre ce qui bugue, et surtout pourquoi pas remettre en croissance au moins un des sites. Même si la décision n'est pas chez moi, je suis convaincu que ça vaut le coup de regarder sérieusement ça :)

On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre.

  • Yea 1
Lien vers le commentaire
Il y a 10 heures, Rincevent a dit :

On est en train d'en discuter au bureau. Personnellement je doute qu'un audit complet soit nécessaire, mais mieux utiliser les analytiques que l'on pourrait récolter sur l'audience est toujours bon à prendre.

 

Merci.

 

Il y a une semaine d'essai gratuit. Pour faciliter la réponse, je vais tester avec ma CB et résilier avant la fin. Je vous ferai un retour. Je mets ça sur le SSO admin@liberaux.org comme ça le bureau peut aussi tester.

Lien vers le commentaire

Premiers résultats

  • Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ?
  • Pas mal de liens internes morts, présents sur toutes les pages, ce qui nuisait à l'indexation. J'ai corrigé l'essentiel
  • Le recours à des = xxx = au lieu de == xxx == par Ludovic Sesim est un gros problème car il crée une deuxième balise titre. Je lui ai indiqué
  • Liste des pages à faible contenu, qui dégradent la qualité du site (en particulier toutes les pages dates créés avec zero contenu). Il faudrait désindexer une large partie, en automatique si possible, via robots.txt

La qualité du site de manière globale est correcte, sans être folle non plus. Pas mal de leviers sur lesquels on peut agir

  • Love 1
Lien vers le commentaire
Le 11/09/2023 à 12:23, Lexington a dit :

Besoin d'une page robots.txt, en particulier pour empêcher l'indexation des pages intermédiaires (qui font du duplicate content sinon) et des pages de travail. Je ne comprends pas bien comment l'ajouter, @Rübezahl peut-être ?

qu'appelle tu "pages intermédiaires" ?

 

Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces.

J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine.

 

Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines.

Mais je suis ce fil.

 

J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD.
Plutôt que via un fichier robots.txt dont la maintenance va reposer sur une seule personne.

Lien vers le commentaire
il y a une heure, Rübezahl a dit :

qu'appelle tu "pages intermédiaires" ?

 

Je n'utilise pas de fichiers robots.txt pour mes mediawiki, donc je n'ai pas d'expérience pratique sur les astuces.

J'imagine qu'on pourrait lister les pages indésirables et coller la liste dans robots.txt, mais de toutes façons il faut plus que l'accès bureaucrate/admin pour faire ça, car robots.txt est vraiment à la racine.

 

Là, je suis en déplacement, sur portable(s) et mes logins/pw sur wikiberal ne fonctionnent pas. Donc je ne pourrais rien gratter sérieusement avant 2 semaines.

Mais je suis ce fil.

 

J'ai tendance à penser qu'il vaudrait peut-être mieux faire des batchs de suppression directement au niveau de la BD.
Plutôt que via un fichier robots.txt dans la maintenance va reposer sur une seule personne.

 

Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste.

 

On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt

 

Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière

Lien vers le commentaire
Il y a 7 heures, Lexington a dit :

 

Ce sont toutes les pages de versions historisées des articles qu'il faut masquer en fait. Et l'historique. Sinon on se retrouve avec, sur certains articles, 100 pages avec le même titre et un contenu proche, ce que Google déteste.

 

On doit garder par exemple wiki/Plafond_de_verre, et masquer la page historique et toutes les versions intermédiaires. Pas besoin de batch, c'est faisable avec des règles simples, cf. https://fr.wikipedia.org/robots.txt

 

Par contre sur WP tu peux bien le modifier sans avoir besoin d'aller trifouiller à la racine, donc je suppose qu'il y a une extension ou autre qui fait le lien. @h16 aura peut-être une idée sinon ? Je peux vous donner un fichier robots.txt à coller à la source, il ne sera pas amené à bouger de toute manière

 

Sinon, voici le fichier robots.txt, testé en ligne sur  https://technicalseo.com/tools/robots-txt/

 

Il y a une première partie reprise de wikipedia, pour dégager des bots trop intrusifs, j'imagine que ça doit soulager les serveurs donc je l'ai laissé.

 

La 2e partie ce sont les règles pour exclure les version historisées des articles (versions intermédiaires comme je disais), ainsi que les pages de diff, en gros tout ce qui fait doublon avec l'article principal.

 

J'ai testé que les pages principales restaient indexées d'après le site de test. Et qu'à l'inverse les pages créant du duplicate content étaient bien bloquées. Preneur d'une autre paire d'yeux si quelqu'un peut tester aussi sur technical seo.com, en ajoutant le code et en entrant des pages aléatoires de WL

 

On est bon de mon côté, le fichier peut être mis à la racine de wikiberal par un admin ( @h16j'imagine)

 

# robots.txt for http://wikiberal.org/ 
#
#

# http://mj12bot.com/
User-agent: MJ12bot
Disallow: /

User-agent: Orthogaffe
Disallow:

# Crawlers that are kind enough to obey, but which we'd rather not have
# unless they're feeding search engines.
User-agent: UbiCrawler
Disallow: /

User-agent: DOC
Disallow: /

User-agent: Zao
Disallow: /

# Some bots are known to be trouble, particularly those designed to copy
# entire sites. Please obey robots.txt.
User-agent: sitecheck.internetseer.com
Disallow: /

User-agent: Zealbot
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: Fetch
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: WebZIP
Disallow: /

User-agent: linko
Disallow: /

User-agent: HTTrack
Disallow: /

User-agent: Xenu
Disallow: /

User-agent: larbin
Disallow: /

User-agent: libwww
Disallow: /

User-agent: ZyBORG
Disallow: /

User-agent: Download Ninja
Disallow: /

# Misbehaving: requests much too fast:
User-agent: fast
Disallow: /

#
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /

#
# The 'grub' distributed client has been *very* poorly behaved.
#
User-agent: grub-client
Disallow: /

#
# Doesn't follow robots.txt anyway, but...
#
User-agent: k2spider
Disallow: /

#
# Hits many times per second, not acceptable
# http://www.nameprotect.com/botinfo.html
User-agent: NPBot
Disallow: /

# A capture bot, downloads gazillions of pages with no public benefit
# http://www.webreaper.net/
User-agent: WebReaper
Disallow: /

User-agent: *
Disallow: /w/
Disallow: /api/
Disallow: /trap/
Disallow: /wiki/Special:
Disallow: /wiki/Special%3A
#
#
#----------------------------------------------------------#
#
#
#
 # <pre>
#
# partie robots.txt pour https://wikiberal.org/ 
#
# Merci de vérifier chaque modification avec un vérificateur de syntaxe
# comme 
# Entrez https://wikiberal.org/robots.txt comme URL à vérifier.
#
# ------------------------------------------------------------------------
#
Disallow: /wiki/Sp%C3%A9cial:
Disallow: /wiki/Discussion
Disallow: /index.php?title=*&action=history
Disallow: /index.php?title=*&diff=*&oldid=*
Disallow: /index.php?title=*&printable=yes
Disallow: /index.php?title=*&oldid=*
Disallow: /wiki/Spécial:MobileDiff/
Disallow: /index.php?title=*&mobileaction=toggle_view_desktop
Disallow: /index.php?curid=*&oldid=
Disallow: /index.php?title=*&diff=prev&oldid=
Disallow: /index.php?oldid=
Disallow: /wiki/MediaWiki:Spam-blacklist
# : → %3A
Disallow: /wiki/Sp%C3%A9cial%3A
# </pre>

 

  • Yea 1
Lien vers le commentaire

Premiers résultats encourageants :

  • L'outil SEO nous donne une bien meilleure note
  • Google détecte bien le fichier Robots et confirme que ce qui doit passer passe, et que ce qui ne doit pas passer ne passe pas

 

A suivre :

  • sur les prochains jours surveiller l'indexation par Google (le nombre de pages doit baisser franchement, mais pas non plus totalement (-70%)
  • sur les prochains jours et prochaines semaines suivre l'audience SEO comme le lait sur le feu, comme indicateur d'un problème ou au contraire d'une amélioration
  • sur les prochaines semaines voir si le positionnement dans les SERP évolue, grâce à l'outil
  • enfin, traiter les quelques milliers d'actions manuelles qui restent à faire...
  • Yea 1
Lien vers le commentaire

Dans le doute sur la décision de l'asso, j'ai demandé la résiliation de la période gratuite à l'issue des 7 jours de test, soit lundi. En me plaignant spécifiquement du prix, dans l'hypothèse où ils ont un système pour te rattraper avec une promotion.

 

J'ai fait générer tous les rapports possibles, qui sont dans la boîte email admin. J'ai de toute façon de quoi bosser un peu dans un premier temps. Mais de manière moins efficace.

  • Yea 1
Lien vers le commentaire

Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine.

 

Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles).

 

image.png

 

 A suivre sur les prochaines semaines pour confirmer.

  • Yea 2
Lien vers le commentaire
  • 2 weeks later...
Le 21/09/2023 à 15:55, Lexington a dit :

Très préliminaire, mais positif. Trait plein = clics depuis Google en 2023, vs ceux de 2022 en hachuré. La tendance était à -50%, on est plutôt à -20% depuis une semaine.

 

Il y a eu beaucoup d'optimisations techniques, mais aussi du nouveau contenu plus chaud (voir nouveaux articles).

 

image.png

 

 A suivre sur les prochaines semaines pour confirmer.

 

 

image.png

 

Première fois où on repasse en croissance (pour le coup, fruit de l'écriture de l'article Samuel Fitoussi, qui a super bien marché avec ses passages médias). Ca souligne le rôle du contenu dans le succès du site. Pas que des sujets techniques.

 

Malgré tout l'amélioration semble se maintenir (le taux de décroissance diminue nettement), même si on est qu'au début (on est à environ 3,5 fois moins d'audience qu'en 2015, 2023 est extrapolé)

 

image.png

 

Il va falloir continuer à optimiser pas mal de choses pour remonter.

 

 

Lien vers le commentaire
# robots.txt for http://wikiberal.org/ 
#
#

# http://mj12bot.com/
User-agent: MJ12bot
Disallow: /

User-agent: Orthogaffe
Disallow:

# Crawlers that are kind enough to obey, but which we'd rather not have
# unless they're feeding search engines.
User-agent: UbiCrawler
Disallow: /

User-agent: DOC
Disallow: /

User-agent: Zao
Disallow: /

# Some bots are known to be trouble, particularly those designed to copy
# entire sites. Please obey robots.txt.
User-agent: sitecheck.internetseer.com
Disallow: /

User-agent: Zealbot
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: Fetch
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: WebZIP
Disallow: /

User-agent: linko
Disallow: /

User-agent: HTTrack
Disallow: /

User-agent: Xenu
Disallow: /

User-agent: larbin
Disallow: /

User-agent: libwww
Disallow: /

User-agent: ZyBORG
Disallow: /

User-agent: Download Ninja
Disallow: /

# Misbehaving: requests much too fast:
User-agent: fast
Disallow: /

#
# Sorry, wget in its recursive mode is a frequent problem.
# Please read the man page and use it properly; there is a
# --wait option you can use to set the delay between hits,
# for instance.
#
User-agent: wget
Disallow: /

#
# The 'grub' distributed client has been *very* poorly behaved.
#
User-agent: grub-client
Disallow: /

#
# Doesn't follow robots.txt anyway, but...
#
User-agent: k2spider
Disallow: /

#
# Hits many times per second, not acceptable
# http://www.nameprotect.com/botinfo.html
User-agent: NPBot
Disallow: /

# A capture bot, downloads gazillions of pages with no public benefit
# http://www.webreaper.net/
User-agent: WebReaper
Disallow: /

User-agent: *
Disallow: /w/
Disallow: /api/
Disallow: /index/
Disallow: /trap/
Disallow: /wiki/Special:
Disallow: /wiki/Spécial:
Disallow: /wiki/Special%3A
#
#
#----------------------------------------------------------#
#
#
#
 # <pre>
#
# partie robots.txt pour https://wikiberal.org/ 
#
# Merci de vérifier chaque modification avec un vérificateur de syntaxe
# comme 
# Entrez https://wikiberal.org/robots.txt comme URL à vérifier.
#
# ------------------------------------------------------------------------
#
Disallow: /wiki/Sp%C3%A9cial:
Disallow: /wiki/Spécial:
Disallow: /wiki/Special:
Disallow: /wiki/Spécial:MobileDiff/
Disallow: /index.php?title=Spécial:Pages_liées/

Disallow: /index.php*
Disallow: /index.php?title=*&mobileaction=toggle_view_mobile
Disallow: /index.php?title=*&mobileaction=toggle_view_desktop
Disallow: /index.php?title=*&action=history
Disallow: /index.php?title=*&diff=*&oldid=*
Disallow: /index.php?title=*&printable=yes
Disallow: /index.php?title=*&oldid=*
Disallow: /index.php?curid=*&oldid=
Disallow: /index.php?title=*&diff=prev&oldid=
Disallow: /index.php?oldid=

Disallow: /wiki/Discussion

Disallow: /wiki/MediaWiki:Spam-blacklist
# : → %3A
Disallow: /wiki/Sp%C3%A9cial%3A
# </pre>

 

Il reste encore quelques pages à bloquer via la page robots.txt

 

@h16tu pourras à l'occasion modifier le fichier ?

 

Merci par avance

Lien vers le commentaire
  • 3 weeks later...

Quelques stats (avec 90%+ de la base couverte)

 

Les "économistes" sont toutes ces pages sur des think tankers, économistes contemporains du monde entier peu connus, etc. Largement l'oeuvre de Ludovic Sesim.


Vous verrez le disconnect énorme entre ce que Wikiberal couvre en quantité d'articles ("économistes", pages standard sur les années ou jour de l'année, et ce que les gens lisent (des articles sur les concepts, ou sur les auteurs de premier plan)

 

image.png

image.png

 

 

Sinon l'évolution du nombre de nouveaux articles par an, avec un split par auteurs

image.png

image.png

 

Lien vers le commentaire
  • 1 month later...

Bon, l'audience s'améliore lentement mais le sujet de l'apparence des résultats dans les SERP est un sujet de long terme pour la résolution.

 

Il faut en gros se taper tous les articles pour que le titre n'apparaisse pas comme ça

 

image.png

 

Mais comme ça

 

image.png

 

=> Titre adapté pour donner envie de cliquer et être positionné sur les requêtes les plus fréquentes, photo illustrative, qui attire l'oeil. Le résumé Google, on ne le choisit pas malheureusement, mais il faut relire pour avoir une phrase simple et courte qui résume l'article.

 

Vous pouvez aider en ajoutant des photos, voire pour ceux qui maitrisent bien le SEO, en demandant les droits nécessaires. Je suis réticent à ouvrir ça de manière trop large.

Lien vers le commentaire
  • 3 weeks later...
  • 4 weeks later...

image.png

 

J'ai créé une demi douzaine d'articles sur les libéraux médiatiques du moment, pour générer du trafic quand ils passent sur les plateaux. Ca marche plutôt pas mal, que ce soit le premier niveau (le trafic reprend du poil de la bête), mais aussi le second (cela tire vers le haut les articles de fond qui sont liés à ces articles au contenu très périssable). Exemple avec Lisa Kamen-Hirsig, qui fait monter Bastiat, le chèque éducation ou l'égalitarisme, toutes ces pages qui sont liées depuis son article.

 

Encourageant, et une idée facile à réaliser si vous pensez à des libéraux de plateau qui n'ont pas leur article WL

  • Yea 2
Lien vers le commentaire
  • 2 months later...

Mazel Tov, après un changement de tendance amorcé en février, on est repassés en croissance YoY en mars 2024

 

image.png

 

La multitude de petits chantiers commence enfin à porter ses fruits semblerait-il.

  • Yea 1
  • Love 2
Lien vers le commentaire
Il y a 8 heures, Lexington a dit :

La multitude de petits chantiers commence enfin à porter ses fruits semblerait-il.

 

Au fait, vu la situation de CP qui fait que j'ai plus de sorties de sous et la rentrée de sous que tu connais, y a sûrement moyen de filer un peu de sous sur des chantiers (soit d'analytics, soit de freelance) si tu vois l'intérêt.

Lien vers le commentaire
Il y a 11 heures, Bézoukhov a dit :

 

Au fait, vu la situation de CP qui fait que j'ai plus de sorties de sous et la rentrée de sous que tu connais, y a sûrement moyen de filer un peu de sous sur des chantiers (soit d'analytics, soit de freelance) si tu vois l'intérêt.

Ah alors je réitère ma demande d'activer de temps en temps un scan automatisé de WL par SEMRush pour 250$ (mensuels normalement, mais que je traiterai les exports dans le temps, en désactivant la facturation pour ne la remettre que de temps en temps afin de voir l'effet des corrections)

Lien vers le commentaire

Un release de l'ago de search qui nous a fait très mal : https://status.search.google.com/incidents/Cou8Tr74r7EXNthuEsaG

 

En images sur l'impact. Le drop de la courbe en pointillés est le 16 mars 2023, immédiatement après la release. @Wayto une piste sur ce qu'il y avait dans ce core update ?

 

image.png

 

Malheureusement ça nuance un peu mes propos sur l'amélioration récente, même si une vraie accélération est visible vs les mois précédents. Une partie de l'amélioration est réelle, l'autre est de l'effet de base

Lien vers le commentaire
Le 08/04/2024 à 22:29, Lexington a dit :

@Wayto une piste sur ce qu'il y avait dans ce core update ?

Je spécule que le retrait de page experience system, the mobile-friendly systempage speed system & secure site system de https://developers.google.com/search/docs/appearance/ranking-systems-guide?hl=fr a impacté le ranking puisque c'étaient bel et bien des ranking systems, et non simplement des signaux.

 

L'accent a été mis fortement - de nouveau - sur EEAT, et topical authority. On le savait, mais c'est la première fois que Google l'écrivait noir sur blanc comme un ranking factor. Les gros sites (certains diraient mainstream) ont profité très positiviement de l'update. De même :

Citation

Our system looks at how original reporting (for example the publisher that first brokes a story) is cited by other publishers to understand how a publication is infuential and authoritative on a topic.

Il est probable que les reposts et traductions qui vous aidaient fortement pour le ranking ont été corrigées / sévèrement pénalisées.

 

Gros coup de marteau sur les PBN, certains conseillaient de trier et retirer manuellement tous les backlinks suspicieux / avec une faible DA. Vu l'historique de Contrepoints en tant qu'agrégateur de blogs, c'est peut-être ça ? Qui vérifiait et triait les backlinks ? A quelle fréquence ?

Edit : pas vu qu'on était dans le club Wikibéral.

Lien vers le commentaire
×
×
  • Créer...