Sommaire
Voilà, on commence la journée avec une discussion plutôt animée entre Danny Sullivan, le responsable des relations publiques pour la recherche chez Google, et un propriétaire de site web frustré par une baisse sérieuse de trafic. L’échange, qui a eu lieu sur Twitter, soulève des questions intéressantes sur la transparence de Google et sur la façon dont le moteur de recherche évalue la fiabilité et l’utilité des contenus en ligne.
L’échange Twitter entre Danny Sullivan et un webmaster
C’est parti d’un propriétaire de site web qui se plaignait d’une perte de trafic conséquente, sans possibilité de demander une révision manuelle (on comprend sa frustration). Danny Sullivan est alors intervenu pour clarifier la situation :
« Il y a deux choses différentes. Un site peut être affecté par une action algorithmique contre le spam. Ou un site peut simplement ne pas bien se classer parce que d’autres systèmes qui ne concernent pas le spam ne le considèrent pas comme utile. »
Oui, bon, on voit que ça démarre sur les chapeaux de roue, avec une distinction subtile qui risque de ne pas éclaircir les choses pour notre webmaster en détresse. Mais attendez, Danny Sullivan enchaîne :
« J’ai examiné de nombreux sites où les gens se plaignaient d’avoir perdu des positions et décidaient qu’ils avaient fait l’objet d’une action algorithmique contre le spam, mais ce n’était pas le cas. »
Ah d’accord, donc parfois, on croit que c’est le fameux algorithme anti-spam qui vous tape sur les doigts, alors que pas du tout (faut reconnaître qu’on aimerait bien qu’ils nous expliquent un peu plus). Mais Danny Sullivan a soulevé un point important : les actions algorithmiques contre le spam ne sont pas les seules responsables des pertes de trafic. D’autres systèmes évaluent aussi la qualité et l’utilité des contenus, et si votre site ne passe pas la rampe, vous pouvez voir votre trafic dégringoler (aïe).
Défis de la transparence et limites des interventions manuelles
Révéler les indices d’actions contre le spam pourrait favoriser les mauvais acteurs
Sullivan a évoqué l’idée de fournir plus de transparence dans la Search Console de Google, en notifiant par exemple les propriétaires de sites des actions algorithmiques contre le spam, comme c’est le cas pour les actions manuelles. Mais il a aussi souligné deux défis majeurs :
Premièrement, révéler les indicateurs d’actions contre le spam pourrait permettre aux mauvais acteurs de contourner le système. On comprend l’argument : si Google dévoile trop d’informations sur ses techniques de détection du spam, certains sites peu scrupuleux pourraient exploiter ces failles et tricher (pas cool).
Deuxièmement, les actions algorithmiques ne sont pas spécifiques à un site. Elles sont appliquées de manière globale et ne peuvent pas être levées manuellement. Donc pas de traitement de faveur, même si vous battiez des cils à Danny Sullivan (désolé les gars).
Les actions algorithmiques ne peuvent pas être levées manuellement
Sullivan a exprimé sa compréhension pour la frustration des webmasters qui ne comprennent pas la cause de leur perte de trafic et n’ont personne à qui s’adresser. Mais en même temps, il a mis en garde contre le désir d’une intervention manuelle pour outrepasser les systèmes automatisés de classement :
« Vous ne voulez pas vraiment penser ‘Oh, si seulement j’avais une action manuelle, ce serait tellement plus facile’. Vous ne voulez vraiment pas que votre site attire l’attention de nos analystes de spam. Premièrement, ce n’est pas comme si les actions manuelles étaient traitées instantanément. Deuxièmement, c’est juste quelque chose que nous savons sur un site désormais, surtout s’il dit avoir changé mais ne l’a pas vraiment fait. »
L’évaluation de la fiabilité et de l’utilité des contenus par Google
Au-delà du spam, Sullivan a abordé les différents systèmes qui évaluent l’utilité, la fiabilité et la pertinence des contenus individuels et des sites web. Il a reconnu que ces systèmes ne sont pas parfaits et que certains sites de qualité peuvent ne pas être reconnus comme ils le devraient.
« Certains sites se classent vraiment bien. Mais ils ont reculé d’un peu, assez pour que la baisse de trafic soit notable. Ils supposent qu’ils ont des problèmes fondamentaux, mais ce n’est pas vraiment le cas – c’est pourquoi nous avons ajouté une section complète sur ce sujet dans notre page de débogage des baisses de trafic. »
Sullivan a révélé que des discussions sont en cours pour fournir plus d’indicateurs dans la Search Console, afin d’aider les créateurs à comprendre les performances de leurs contenus. Un pas dans la bonne direction, même s’il faudra trouver un équilibre délicat pour ne pas donner trop d’informations exploitables par les mauvais acteurs.
Discussions en cours pour fournir plus d’indicateurs dans Search Console
« Une autre chose que j’ai discutée, et je ne suis pas le seul, c’est si nous pourrions en faire plus dans la Search Console pour montrer certains de ces indicateurs. Tout cela est difficile, comme tout ce que j’ai dit sur le spam, sur le fait de ne pas vouloir que les systèmes soient exploités, et aussi sur le fait qu’il n’y aurait alors aucun bouton à pousser qui dirait ‘en fait plus utile que ce que pensent nos systèmes automatisés – classez-le mieux !’. Mais peut-être qu’il existe un moyen de partager plus d’informations, d’une manière qui aide tout le monde et, couplé à de meilleures conseils, aiderait les créateurs. »
Plaidoyer pour des solutions positives en faveur des petits éditeurs
Suite à une suggestion de Brandon Saltalamacchia, fondateur de RetroDodo, sur la possibilité de revoir manuellement les « bons » sites et de fournir des conseils, Sullivan a partagé ses réflexions sur des solutions potentielles.
Il a mentionné explorer des idées comme l’auto-déclaration via des données structurées pour les petits éditeurs, et apprendre de ces informations pour apporter des changements positifs. Une approche intéressante qui pourrait aider les éditeurs de qualité à se faire mieux connaître de Google (pourquoi pas, après tout).
Exploration de l’auto-déclaration via des données structurées
« J’ai réfléchi à certaines idées que j’ai explorées et proposées sur ce que nous pourrions faire avec les petits éditeurs et l’auto-déclaration avec des données structurées, et comment nous pourrions apprendre de ces informations et les utiliser de diverses manières. Ce qui me fait aller un peu trop vite et les habituelles promesses ne sont pas possibles, mais oui, je pense et j’espère trouver des moyens d’avancer de manière plus positive. »
Sullivan n’a pas pu faire de promesses ou mettre en œuvre des changements du jour au lendemain, mais il a exprimé l’espoir de trouver des moyens d’avancer de manière positive. Une lueur d’espoir pour les petits éditeurs qui peinent à se faire une place au soleil dans le vaste monde du Web (allez, on y croit).
Résumé / TL;DR
- Danny Sullivan de Google a expliqué les défis liés à la transparence sur les baisses de trafic
- Révéler trop d’indices sur les actions anti-spam pourrait être contre-productif
- Les actions algorithmiques ne peuvent pas être levées manuellement
- Google évalue la fiabilité et l’utilité des contenus, mais les systèmes sont imparfaits
- Des solutions comme l’auto-déclaration sont explorées pour aider les petits éditeurs