Le spot zéro est passé – Voici ce que nous savons après 30 jours

Le spot zéro est passé – Voici ce que nous savons après 30 jours

Le spot zéro est passé - Voici ce que nous savons après 30 jours

Comme vous le savez probablement déjà, les récentes mises à jour ont changé le monde de l’optimisation des recherches. Le 22 janvier, Google, dans son infinie sagesse, a décidé que l’URL qui a valu à l’extrait présenté de figurer dans un SERP n’aurait pas la place supplémentaire dans ce SERP. Cela signifie également que désormais, l’extrait vedette sera la véritable position spot-one.

Plutôt que de répéter ce qui a déjà été discuté avec tant d’éloquence, je vous renvoie au billet du Dr. Pete si vous avez besoin d’un rappel sur ce que cela signifie pour vous et pour Websterdata.

30 jours suffisent pour dégager les tendances, mais pas toutes les réponses

Je suis dans le domaine du référencement depuis assez longtemps pour savoir que lorsqu’il y a un grand bouleversement (comme la suppression du point zéro), les patrons et les clients veulent savoir ce que cela signifie pour l’entreprise. Dans de telles situations, les réponses des OMR se limitent à 1) ce qu’ils peuvent voir dans leurs propres comptes, et 2) ce que les autres signalent en ligne.

Une seule période de 30 jours n’est pas suffisante pour observer des tendances concrètes et fournir des suggestions définitives sur ce que chaque référenceur devrait faire. Mais il est suffisant pour donner une voix aux tendances qui méritent d’être observées au fil du temps. La seule façon pour les référenceurs d’arriver en tête est de partager entre eux les tendances qu’ils observent. Sans les données et les théories des uns et des autres, nous ne verrons que ce qui est sous nos yeux – ce qui n’est souvent pas le cas.

C’est pourquoi, dans un effort pour faire avancer la discussion sur le monde de l’après-zéro, nous avons, au 97e étage, entrepris de découvrir les tendances sous notre nez, en examinant près de 3 000 exemples d’avant et d’après des bribes d’articles présentés depuis le 22 janvier.

Les données et la méthodologie

Je sais que nous voulons tous simplement voir les résultats (que vous pouvez de toute façon consulter), mais il vaut la peine de prendre une minute pour expliquer la méthodologie qui a permis d’obtenir ces résultats.

Les deux principaux outils utilisés ici étaient la console de recherche Google et STAT. Bien qu’il y ait plus de données sur le trafic dans Google Analytics que dans GSC, nous sommes limités par le trafic généré par les mots-clés, étant donné que le trafic est limité à l’ensemble de la page. C’est pourquoi nous avons utilisé GSC pour obtenir les taux de clics de certains mots clés sur des pages spécifiques. Ces données s’associent parfaitement à celles de STAT pour nous donner un aperçu quotidien du Google Rank et du Google Base Rank pour les mots-clés en question.

Bien qu’il y ait beaucoup de mots-clés à examiner, nous avons constaté que les mots-clés de petit volume – tout ce qui est inférieur à 5 000 MSV mondiaux (avec quelques exceptions mineures) – produisaient des résultats qui n’avaient pas assez de données pour être statistiquement significatifs. Ainsi, tous les mots-clés analysés ont fait l’objet de plus de 5 000 recherches mensuelles à l’échelle mondiale, comme l’indique la STAT.

Il est également important de noter que toutes les notes de difficulté proviennent de Websterdata.

Bien entendu, nous ne nous sommes intéressés qu’aux SERPs qui avaient un extrait de leur contenu pour nous assurer d’avoir une image précise avant et après, ce qui réduit encore le nombre de mots-clés. En fin de compte, le lot final de mots-clés analysés était de 2 773.

Nous avons appliqué des formules de base pour déterminer quels mots-clés racontaient des histoires claires. Cela nous a amenés à analyser en profondeur une centaine de mots-clés à la main, parfois pendant plusieurs heures en regardant un seul mot-clé, ou plutôt un seul SERP sur une période de 30 jours. Les résultats présentés ci-dessous proviennent de ces 100 analyses qualitatives de mots-clés.

Oh, et cela va peut-être sans dire, mais je fais de mon mieux pour protéger les données du client du 97e étage, je ne donnerai donc rien qui puisse incriminer les sites web auxquels mes captures d’écran sont attachées. Le 97e étage a accès à des centaines de comptes clients du SGC et nous suivons les mots clés dans STAT pour presque chacun d’entre eux.

En clair, je m’engage à partager les meilleures données et informations, mais pas au détriment de la vie privée de nos clients.

Les conclusions… pas ce que j’attendais

Oui, je faisais partie de la liste des référenceurs qui ont dit pour la première fois que les référenceurs pourraient en fait devoir envisager de tirer pour le spot 2 au lieu du spot 1.

Je ne pense toujours pas que j’avais tort (comme le montrent les données ci-dessous), mais après cette analyse des données, j’en suis venu à constater que c’est une histoire plus nuancée que les résultats rapides et sales que nous voulons tous d’une étude comme celle-ci.

La meilleure façon de lever le voile sur le mystère de la rétrogradation au point zéro est de présenter les résultats individuels de cette étude comme des enseignements individuels. Voici donc, sans ordre particulier, les conclusions de cette étude.

Les gagnants de longue date des bribes d’information voient le CTR et les baisses de trafic

Si le monde de l’après-zéro peut sembler passionnant pour les moteurs de recherche qui, depuis des années, cherchent à obtenir un grand nombre d’extraits de sites, les sites qui ont occupé indéfiniment des positions puissantes dans les extraits de sites voient moins de clics.

Le mot-clé ci-dessous représente une page que nous avons construite il y a des années pour un client qui détient presque exclusivement les bribes depuis le lancement. Le mot-clé a un volume de recherche global de 74 000 et une difficulté de 58, sans parler d’un CPC moyen de 38,25 $. Il suffit de dire que c’est un mot-clé et une position assez lucrative pour notre client.

Nous avons analysé le CTR de ce mot-clé unique qui renvoie à cette page unique sur la console de recherche Google pendant deux semaines avant l’annonce du 22 janvier et deux semaines après. J’aimerais bien remonter plus loin que deux semaines, mais si nous l’avions fait, nous nous serions glissés dans les chiffres du trafic du Nouvel An, ce qui aurait brouillé les données.

Comme vous pouvez le voir, les impressions et la position moyenne sont restées presque identiques pour ces deux périodes. Mais le CTR et les clics ultérieurs ont diminué de façon spectaculaire dans les deux semaines qui ont suivi immédiatement la fin du spot-zero du 22 janvier.

Si cette tendance se poursuit jusqu’à la fin de l’année 2020, ce changement d’extrait de mot-clé entraînera une baisse de 9 880 clics en 2020. Encore une fois, il ne s’agit que d’un seul mot-clé, et non de tous les mots-clés que cette page représente. Lorsque vous intégrez le CPC moyen dans cette équation, cela représente 377 910 dollars de clics perdus (si ces clics ont été payés).

Bien sûr, il s’agit d’une situation exagérée en raison du volume du mot-clé et du CPC gonflé, mais le principe découvert à maintes reprises dans cette recherche reste le même : les marques qui ont conservé la position de l’extrait présenté pendant de longues périodes voient leur CTR et leur trafic diminuer en conséquence directe du secouage spot-zero.

Lorsqu’un double extrait est présent, la CTR sur les premiers réservoirs d’extrait

Presque aussi insaisissable que le yéti ou le Bigfoot, le double extrait trouvé dans son habitat naturel est rare.

On peut s’y attendre : lorsque deux résultats sont des bribes d’information, le premier reçoit moins de clics. Mais les chiffres bruts nous ont laissé avec la mâchoire au sol. À chaque fois que nous avons rencontré ce phénomène, nous avons découvert que le premier spot (le premier extrait présenté) perd plus de 50 % de son CTR lorsque le second extrait est introduit.

Ce mot-clé MSV de 40 500 mots-clés globaux était le seul contrôleur de l’extrait présenté lundi, et le mardi, le SERP est resté intact (à part l’introduction du deuxième extrait).

Ce petit changement a mis à genoux le CTR de notre client, qui est passé d’un respectable 9,2 % à un paralysant 2,9 %.

Lorsque l’on regarde comment ce mot-clé s’est comporté le reste de la semaine, la tendance continue à suivre.

Le lundi et le mercredi sont des journées à simple extrait, tandis que le mardi, le jeudi et le vendredi ont apporté le double extrait.

Easy come, easy go (pas un vrai Spot 1)

Il y a eu beaucoup de spéculations sur ce fait, mais je peux maintenant confirmer que le classement pour un extrait vedette n’est pas le même que pour un véritable spot 1. Dans le cas ci-dessous, vous pouvez voir un de nos clients danser autour des spots 5 et 6 avant de prendre un extrait. De même, lorsqu’il perd l’extrait, il revient à la position initiale.

Ce genre de situation n’est que trop fréquent. La plupart du temps, nous voyons les URLs perdre le snippet au profit d’autres URLs. D’autres fois, Google supprime entièrement l’extrait pour le ramener le lendemain.

Si vous vous demandez ce qu’était le rapport CTR sur le SGC pour la capture d’écran ci-dessus, je l’ai joint ci-dessous. Mais n’allez pas trop vite, les résultats ne sont pas très instructifs. Ce qui est en soi très instructif.

Ce mot-clé a un volume global de 22 200 et une difficulté de 44. Le SERP reçoit un trafic important, on pourrait donc penser que les résultats sont plus évidents.

S’il y a quelque chose à retirer de situations comme celle-ci, le voici : Le fait de gagner un extrait ne signifie pas en soi que les CTR s’amélioreront au-delà de ce que vous obtiendriez dans une position inférieure à la moyenne.

Voir les CTR se retrouver sous le pli

Une grande partie des données abordées jusqu’à présent concernent des sites qui ont soit présenté des bribes, soit les ont perdues, mais qu’en est-il des sites qui n’ont pas eu de bribes avant ou après ce remaniement ?

Si cela décrit votre situation, vous pouvez vous lancer dans une petite célébration (l’accent est mis sur le minuscule), car les données suggèrent que vos URLs pourraient recevoir une légère bosse CTR.

L’exemple ci-dessous montre un mot clé MSV global de 74 000 avec une difficulté qui a plané entre les spots 5 et 7 pour la semaine précédant et la semaine suivant le 22 janvier.

La capture d’écran de STAT montre que ce mot-clé est clairement resté en dessous du pli et assez cohérent. En fait, il s’est même classé moins bien après le 22 janvier.

Le taux de clics s’est amélioré la semaine suivant le 22 janvier, passant de 3 % à 3,7 %. Ce n’est peut-être pas assez pour justifier une célébration pour ceux qui sont en dessous du pli, car cette petite augmentation était typique pour de nombreuses positions en milieu de première page.

Les boîtes « Les gens demandent aussi » sont là pour vous voler votre CTR

Cette information n’est peut-être pas nouvelle si l’on considère que les boîtes PAA ne sont qu’un endroit de plus qui peut mener les utilisateurs vers un trou de souris d’informations qui ne concernent pas votre URL.

Sur pratiquement tous les SERP (en fait, nous n’avons pas trouvé de cas où cela n’était pas vrai), la présence d’une boîte PAA fait chuter le CTR de l’extrait et des résultats standard.

Les effets négatifs de la case AAP apparaissant dans votre SERP sont atténués lorsque la case AAP ne se trouve pas immédiatement en dessous de l’extrait présenté. C’est rare, mais il y a des situations où la case « Les gens demandent aussi » sert plus bas dans le SERP, comme cet exemple ci-dessous.

Si votre objectif est de créer des pages supplémentaires qui répondent aux questions figurant dans les cases correspondantes de l’AAP, prenez un moment pour comprendre que nous avons rarement vu des cas de clics lorsque nos clients se présentaient dans les cases de l’AAP.

Dans le cas présent, nous avons un client qui se classe pour deux des quatre premières réponses dans un SERP à fort volume (22 000 recherches mensuelles globales), mais qui n’a pas vu un seul clic – du moins aucun de la part de GSC :

Alors que sa page homologue, qui a régulièrement servi au point 6, obtient au moins une sorte de taux de clics :

S’il y a une leçon à tirer ici, c’est que le classement sous le pli de la première page est meilleur que l’accès à la case AAP (en termes de clics en tout cas).

Alors, qu’est-ce qu’il faut retenir ?

Comme vous pouvez le constater, les résultats sont un peu partout. Cependant, le principal point sur lequel je reviens sans cesse est le suivant : La cliquabilité est plus importante que jamais.

En examinant ces données, je me suis constamment souvenu d’une phrase que notre vice-président des opérations, Paxton Gray, est célèbre pour avoir dite :

« Connaissez vos SERP ».

Cette phrase est encore plus vraie aujourd’hui qu’en 2014, lorsque je l’ai entendue pour la première fois.

En réfléchissant à ce réservoir de données frustrantes, je me suis souvenu des remarques de Jeff Bezo dans sa lettre aux actionnaires d’Amazon de 2017 :

« Une chose que j’aime chez les clients, c’est qu’ils sont divinement mécontents. Leurs attentes ne sont jamais statiques – elles augmentent. C’est la nature humaine. Nous ne sommes pas sortis de notre époque de chasseurs-cueilleurs en étant satisfaits. Les gens ont un appétit vorace pour une meilleure façon de faire, et le « wow » d’hier devient rapidement le « ordinaire » d’aujourd’hui ».

Et puis ça m’a frappé : Google n’a pas été conçu pour le référencement, il est conçu pour les utilisateurs. Le travail de Google est le nôtre, il consiste à donner aux utilisateurs le meilleur contenu. Au 97e étage, notre credo est le suivant : nous faisons de l’internet un endroit meilleur. Cela peut sembler un peu ringard, mais nous nous y tenons. Chaque page que nous créons, chaque annonce que nous diffusons, chaque élément interactif que nous créons et chaque fichier PDF que nous publions pour nos clients doit améliorer l’internet. Et bien qu’il soit difficile pour nous de regarder les mises à jour de Google prendre les clics de nos clients, nous reconnaissons que c’est pour l’utilisateur. Ce n’est qu’une étape de plus dans la danse élégante que nous menons avec Google.

Je me souviens d’un jour où les spots 1, 2 et 3 obtenaient régulièrement des CTR à deux chiffres. Et aujourd’hui, nous célébrons le fait que le spot 1 ait un CTR supérieur à 10 %. Je vais même prendre un 8 % pour un extrait vedette après avoir effectué cette recherche !

Aujourd’hui, le référencement ne se limite pas à placer un mot-clé dans un titre et à pousser des liens vers une page. Les fonctionnalités du SERP peuvent avoir un effet plus direct sur vos clics que vos propres optimisations de pages. Mais cela ne signifie pas que le référencement est hors de notre contrôle – loin s’en faut. Nous nous en sortons toujours, mais nous devons partager nos connaissances avec les autres. Après tout, la transparence fait d’Internet un endroit meilleur.

35
36