Le sale petit secret en vedette : où l’homme compte sur l’intervention algorithmique [Étude de cas]

Le sale petit secret en vedette : où l’homme compte sur l’intervention algorithmique [Étude de cas]

Le sale petit secret en vedette : où l'homme compte sur l'intervention algorithmique [Étude de cas]

J’ai récemment terminé un projet dans le cadre duquel j’ai été chargé d’étudier pourquoi un site (qui reçoit plus d’un million de visites organiques par mois) n’est classé pour aucun des extraits présentés.

C’est évidemment une situation alarmante, puisque ~15% de toutes les pages de résultats, selon le WebsterdataCast, ont un extrait vedette comme caractéristique du SERP. Le projet m’a été transmis par un ami de l’industrie. J’ai fait beaucoup de recherches sur les snippets vedettes dans le passé. Je fais rarement des projets ponctuels, mais celui-ci a vraiment attiré mon attention. J’étais déterminé à trouver quel problème avait un impact sur le site.

Dans cet article, je détaille ma méthodologie pour le projet que j’ai livré, ainsi que les points clés à retenir pour mon client et d’autres personnes qui pourraient être confrontées à une situation similaire. Mais avant de me plonger dans mon analyse, je tiens à préciser que ce billet n’a pas de fin féerique. Je n’ai pas réussi à déboucher un drain qui a attiré des milliers de nouveaux visiteurs.

J’ai cependant réussi à mettre un terme à cette situation pour mon client, ce qui lui a permis de passer à autre chose et d’investir des ressources dans des domaines qui auront un impact durable.

Confirmer les soupçons avec Big Data

Maintenant, quand mon client est venu me voir pour la première fois, il avait ses propres soupçons sur ce qui se passait. Ils avaient été conseillés par d’autres consultants sur ce qu’il fallait faire.

On leur avait dit que le problème présenté provenait de l’un ou l’autre :

1. 1. d’un problème lié à des données structurées contradictoires sur le site

OU1ié à un HTML désordonné qui empêchait le site d’apparaître dans les résultats des snippets

J’ai immédiatement fermé le premier numéro, car il y avait des bribes de reportages qui n’apparaissaient pas. J’ai beaucoup écrit sur ce sujet dans le passé. Les données structurées (dans le contexte de schema.org) n’ont PAS d’influence sur les bribes d’articles. Vous pouvez en savoir plus à ce sujet dans mon billet sur Search Engine Land.

Quant au deuxième point, il est plus proche de la réalité, mais aussi si éloigné de celle-ci. Oui, la structure HTML aide considérablement lorsque l’on essaie de se classer pour des extraits de contenu. Mais au point qu’un site qui se classe pour près d’un million de mots-clés mais qui ne se classe pour aucun extrait vedette du tout ? C’est très peu probable. Ce n’est pas tout, mais confirmons d’abord nos soupçons.

Commençons par le haut. Voici à quoi ressemble le trafic organique estimé :

Note : Je ne peux pas montrer le trafic réel de ce site pour des raisons de confidentialité. Mais l’estimation mensuelle que donne Ahrefs de 1,6M n’est pas loin.

Sur les 1,6 millions de visites organiques mensuelles, Ahrefs relève 873 000 mots-clés organiques. En filtrant ces mots clés par les fonctionnalités du SERP avec un extrait de page et en les classant par position, vous obtenez les résultats suivants :

J’ai ensuite fait une recherche similaire avec Websterdata Pro en utilisant leurs capacités de filtrage par extrait de données ainsi que SEMrush, ce qui m’a permis de voir le classement historique.

Les trois outils affichent le même résultat : le site ne s’est classé pour aucun extrait vedette du tout, malgré le fait qu’environ 20 % des mots-clés organiques de mon client incluent un extrait vedette en tant que fonction SERP (plus élevé que la moyenne de WebsterdataCast).

Il était clair que le site n’était classé pour aucun extrait vedette sur Google. Mais qui enlevait cette position à mon client ?

L’étape suivante a consisté à vérifier si d’autres sites se classaient dans le même créneau. Si c’était le cas, cela indiquerait clairement l’existence d’un problème.

Une comparaison entre « nous » et « eux ».

Là encore, nous devons réfléchir à nos outils. Nous avons besoin de nos outils pour déterminer les meilleurs sites en fonction de la similarité des mots-clés. Voici un exemple de ce type d’outil en action dans le cadre du nouvel outil d’analyse des domaines Websterdata :

Une fois que nous avons la liste finale des sites similaires, nous devons effectuer la même analyse que celle qui a été réalisée dans la section précédente de ce billet pour voir s’ils se classent pour les bribes de sites présentés.

Cette analyse nous permettra de déterminer s’ils ont présenté des extraits affichant ou non, ainsi que le pourcentage de leurs mots-clés organiques ayant un extrait présenté comme une caractéristique du SERP.

L’étape suivante consiste à ajouter toutes ces données à une fiche Google et à voir si tout correspond au site de mon client. Voici à quoi ressemblent ces données pour mon client :

Je dois maintenant approfondir les sites de mon tableau. Sont-ils vraiment si pertinents ou mes outils ne font-ils que reprendre un sous-ensemble de requêtes similaires ?

J’ai constaté qu’à partir de la ligne 8 de mon tableau, ces sites n’étaient pas tous très similaires. Je les ai exclus de mon ensemble de données final pour que les choses restent aussi pertinentes que possible.

Sur la base de ces données, j’ai pu voir 5 autres sites qui étaient similaires à mes clients. Sur ces cinq sites, un seul avait des résultats où ils se classaient dans un extrait présenté.

80 % des sites similaires à celui de mon client avaient exactement le même problème. C’est une information extrêmement importante à garder à l’esprit pour l’avenir.

Bien que la taille de l’échantillon soit considérablement plus faible, l’un de ces sites a ~34% de résultats de recherche pour lesquels ils sont classés alors qu’ils ne peuvent pas être présentés. En comparaison, cela est assez problématique pour ce site (compte tenu du calcul de 20 % effectué à partir de la situation de mon client).

Cette analyse a été utile pour déterminer si la question était spécifique à mon client ou à l’ensemble du créneau. Mais avons-nous des directives de Google pour étayer cette analyse ?

Google a présenté des extraits de documentation de soutien

Dans la documentation Google Featured Snippet, ils fournissent des détails sur les politiques entourant la fonction SERP. Il s’agit d’une information publique. Mais je pense qu’un pourcentage très élevé de référenceurs ne sont pas conscients (d’après les multiples discussions que j’ai eues) de l’impact que peuvent avoir certains de ces détails.

Par exemple, les lignes directrices le précisent : 

« En raison de ce traitement de premier plan, les textes, images et les pages d’où ils proviennent ne doivent pas enfreindre ces politiques ». 

Elles mentionnent ensuite 5 catégories :

Sexuellement explicite
Haineux
Violent
Dangereux et nuisible
Absence de consensus sur les sujets d’intérêt public

Le numéro cinq, en particulier, est intéressant. Cette section n’est pas aussi claire que les quatre autres et nécessite une certaine interprétation. Google explique cette catégorie de la manière suivante :

« Les bribes de contenu d’intérêt public – y compris les questions civiques, médicales, scientifiques et historiques – ne devraient pas manquer d’un consensus bien établi ou d’un consensus d’experts ».

Et ce qui est encore plus intéressant dans tout cela : ces politiques ne s’appliquent pas aux listes de recherche sur le web et n’entraînent pas leur suppression.

Si vous entrez dans l’une de ces catégories, il peut être difficile de trouver des extraits de reportages, mais vous pouvez quand même obtenir un bon classement dans les dix résultats du lien bleu. C’est une situation un peu étrange.

En me basant sur ma connaissance du client, je ne pouvais pas dire avec certitude si l’une des cinq catégories était responsable de son problème. Il semblait bien qu’il s’agissait d’une intervention algorithmique (et je me demandais quelle catégorie était la cause potentielle).

Mais il n’y avait aucun moyen de le confirmer. Le site n’avait pas d’action manuelle dans la console de recherche Google. C’est littéralement la seule façon pour Google de communiquer quelque chose comme cela aux propriétaires du site.

J’avais besoin de l’aide de quelqu’un à l’intérieur de Google.

La pièce manquante : Un retour d’information officiel de Google sur le site

L’une des ressources les plus sous-utilisées dans une boîte à outils de référencement (selon mon opinion), sont les Google Webmaster Hangouts tenus par John Mueller.

Vous pouvez voir le programme de ces Hangouts sur YouTube ici et les rejoindre en direct, en posant une question à John en personne si vous le souhaitez. Vous pouvez aussi essayer John sur Twitter, mais rien ne vaut la vidéo.

Vous avez la possibilité d’expliquer votre question en détail. John peut facilement demander des éclaircissements, et vous pouvez avoir un rapide aller-retour qui permet d’aller au fond de votre problème.

C’est ce que j’ai fait pour comprendre cette situation. J’ai parlé avec John en direct sur le Hangout pendant environ 5 minutes ; vous pouvez regarder mon segment ici si vous êtes intéressé. John m’a donné son adresse e-mail et j’ai pu l’envoyer par le site pour qu’il vérifie avec l’équipe de classement de Google.

J’ai fait un suivi avec John sur Twitter pour voir s’il pouvait obtenir des informations de l’équipe sur la situation de mes clients. Vous pouvez suivre le lien ci-dessus pour voir l’intégralité de la communication, mais John m’a répondu qu’il n’y avait pas de pénalité manuelle mise en place pour le site de mon client. Il a dit que c’était purement algorithmique. Cela signifie que l’algorithme décidait que le site n’était pas autorisé à se classer dans les extraits présentés.

Et c’est un élément important de la réponse de John :

Si un site n’est pas classé dans les résultats organiques de Google (par exemple, dans les positions 1 à 5), il n’y a aucun moyen de le forcer à se classer.

Pour moi, c’est un sale petit secret d’une certaine manière (d’où le titre de cet article). Les algorithmes de Google peuvent décider qu’un site ne peut pas apparaître dans un extrait présenté (mais pourrait se classer en deuxième position de façon constante), et il n’y a rien qu’un propriétaire de site puisse faire.

…et le résultat final ?

Le résultat, dans le créneau spécifique où se trouve mon client, est que beaucoup de sites plus petits et apparemment moins pertinents (dans l’ensemble) sont ceux qui sont classés dans les vignettes. Ces sites fournissent-ils la meilleure réponse ? Eh bien, l’algorithme organique de classement par 10 liens bleus ne le pense pas, mais l’algorithme des extraits de sites en vedette le pense.

Cela signifie que le site contient beaucoup de requêtes qui ont un faible CTR, ce qui se traduit par un trafic considérablement réduit. Bien sûr, les extraits de sites ne génèrent parfois pas beaucoup de trafic. Mais ils attirent certainement beaucoup plus l’attention que les listes organiques ci-dessous :

D’après l’étude du groupe Nielsen Norman, lorsque des caractéristiques de SERP (comme des bribes de contenu) étaient présentes sur un SERP, ils ont constaté qu’ils recevaient des regards dans 74% des cas (avec un intervalle de confiance de 95% de 66-81%). Ces données montrent clairement que les bribes d’articles de fond sont importantes pour que les sites se classent dans la mesure du possible, ce qui leur donne une bien meilleure visibilité.

Comme l’algorithme de Google prend cette décision, il s’agit probablement d’une question de responsabilité ; Google (les personnes impliquées dans le moteur de recherche) ne veut pas être celui qui doit prendre cette décision. C’est une question délicate. Je comprends pourquoi Google doit mettre en place ces systèmes pour son moteur de recherche (l’échelle est importante), mais la communication pourrait être considérablement améliorée pour ce type d’interventions algorithmiques. Même s’il ne s’agit pas d’une intervention manuelle, il devrait y avoir une sorte de notification dans la console de recherche de Google. Sinon, les propriétaires de sites se contenteront d’investir dans la recherche et le développement pour que leur site soit classé parmi les sites les plus populaires (ce qui est tout à fait naturel).

Et encore une fois, ce n’est pas parce qu’il existe des catégories dans la documentation sur la politique des bribes d’information que la curiosité des propriétaires de sites va toujours disparaître. Il y aura toujours un « et si » ?

Au fond, je ne suis pas sûr que Google fasse un jour cet ajout à la console de recherche Google. Cela signifierait trop de communication sur le sujet et pourrait entraîner des litiges inutiles avec les propriétaires de sites qui estiment avoir été lésés. Mais il faut que quelque chose change. Il doit y avoir moins d’ambiguïté pour le propriétaire de site moyen qui ne sait pas qu’il peut accéder directement à des personnes géniales de l’équipe de recherche Google. Mais pour l’instant, cela restera le petit secret de Google.

Lectures complémentaires :
Brèves en vedette : Ce qu’il faut savoir et comment cibler

30
43