Identification des modèles de performance de la recherche avancée du SGC (et ce qu’il faut faire à leur sujet)

Identification des modèles de performance de la recherche avancée du SGC (et ce qu’il faut faire à leur sujet)

Identification des modèles de performance de la recherche avancée du SGC (et ce qu'il faut faire à leur sujet)

La Google Search Console est de loin le dispositif le plus utilisé dans la boîte à outils du SEO. Non seulement elle nous permet de comprendre au mieux le comportement et la perception de Googlebot concernant les propriétés de nos domaines (en termes d’indexabilité, de convivialité du site, etc.), mais elle nous permet également d’évaluer les ICR de recherche que nous travaillons si rigoureusement à améliorer. GSC est gratuit, sécurisé, facile à mettre en œuvre, et il héberge la forme la plus pure des données de vos KPI de performance de recherche. Cela semble parfait, n’est-ce pas ?

Cependant, le manque de capacité à analyser ces KPI à plus grande échelle signifie que nous pouvons souvent passer à côté de points cruciaux qui indiquent la véritable performance de nos pages. Le fait d’être limité à 1 000 lignes de données par requête et le filtrage restreint rendent le raffinement des données et la découverte de la croissance fastidieux (ou presque impossible).

Les référenceurs adorent la console de recherche Google – elle dispose des données parfaites – mais malheureusement, ce n’est pas l’outil parfait pour interpréter ces données.

Pour info : il existe une API

Afin de commencer à tirer le meilleur parti possible du SGC, une option consiste à utiliser une API qui augmente le montant de la demande à 25 000 lignes par tirage. La merveilleuse Aleyda Solis a créé un rapport Google Data Studio exploitable à l’aide d’une API très facile à mettre en place et à configurer selon vos besoins.

Vous pouvez également utiliser un logiciel prêt à l’emploi. Dans cet article, les exemples utilisent Ryte Search Success parce qu’il est beaucoup plus facile, rapide et efficace de travailler avec ce type de données à l’échelle.

Nous utilisons Search Success pour de nombreux projets au quotidien, que nous aidions un client sur un sujet spécifique ou que nous effectuions des optimisations pour nos propres domaines. Ainsi, nous rencontrons naturellement de nombreux modèles qui donnent une meilleure indication de ce qui se passe sur les SERP.

Quelle que soit la façon dont vous utilisez les données de performance de recherche des SGC, vous pouvez en faire un chef-d’œuvre qui vous assure de tirer le meilleur parti de vos mesures de performance de recherche ! Pour vous aider à démarrer, je vais vous montrer quelques schémas avancés et, franchement, passionnants que j’ai souvent rencontrés en analysant les données sur les performances de recherche.

Alors, sans plus attendre, allons-y.

Les mises à jour de base vous ont déprimé ?

Lorsque nous analysons les mises à jour de base, c’est toujours la même chose. Vous pouvez voir ci-dessous l’un des exemples les plus clairs de mise à jour de base. Le 6 mai 2020, il y a une chute spectaculaire des impressions et des clics, mais ce qui est vraiment important à retenir, c’est la chute brutale du nombre de mots-clés de classement.

Le nombre de mots-clés de classement est un indicateur clé de performance important, car il vous aide à déterminer si un site augmente régulièrement sa portée et la pertinence de son contenu. En outre, vous pouvez le relier aux volumes de recherche et aux tendances dans le temps.

Dans le cadre de ce projet, nous avons trouvé des centaines de cas qui ressemblent exactement aux exemples ci-dessous : des termes lucratifs grimpaient aux pages deux et trois (alors que Google perçoit la pertinence du classement) avant de finalement se retrouver dans le top 10 à tester.

On constate une augmentation correspondante des impressions, mais le taux de clics pour ce mot-clé important est resté à un maigre 0,2 %. Sur 125 000 recherches, la page n’a reçu que 273 clics. Ce n’est clairement pas suffisant pour que ce domaine reste dans le top 10, donc lors du déploiement de la mise à jour de base, Google a rétrogradé ces résultats nettement inférieurs.

L’exemple suivant est très similaire, mais nous constatons une altitude plus élevée sur la première page en raison d’un nombre d’impressions plus faible. Google cherchera probablement à obtenir des résultats statistiquement pertinents, donc moins il y a d’impressions sur un mot-clé, plus les tests doivent être longs. Comme vous pouvez le voir, 41 clics sur 69K impressions montrent qu’aucun chercheur n’a cliqué sur le site via ce mot-clé commercial, et qu’ils sont donc revenus aux pages deux et trois.

C’est un schéma typique de mise à jour du noyau que nous avons observé des centaines de fois. Cela nous montre que Google est clairement à la recherche de ces schémas, aussi, afin de trouver ce qui pourrait être sans intérêt pour ses utilisateurs, et ce qui peut dire adieu à la première page après une mise à jour.

Passez ces « 10 meilleurs tests » haut la main

Nous ne pouvons jamais savoir avec certitude quand Google lancera une mise à jour du noyau dur, ni être totalement sûrs de ce qui entraînera une rétrogradation. Cependant, nous devrions toujours essayer de détecter rapidement ces signes révélateurs et réagir avant même d’avoir pensé à une mise à jour de base.

Assurez-vous de mettre en place un processus permettant de découvrir les CTR des sous-parties et de tirer parti de tactiques telles que le test de copie d’extraits et la génération de résultats riches ou d’extraits en vedette, qui viseront à dépasser les attentes de Google en matière de CTR et à vous assurer les dix premières places.

Bien entendu, nous sommes également témoins de ces « Top 10 Tests » classiques en dehors des mises à jour de base de Google !

L’exemple suivant provient de notre sous-domaine bien-aimé en.ryte.com, qui vise à générer des pistes vers nos services et qui abrite notre vaste wiki et notre magazine de marketing en ligne, de sorte qu’il génère naturellement du trafic pour de nombreuses requêtes à but informatif.

Voici le classement du mot-clé « bing », qui est une requête de navigation typique avec des tonnes d’impressions (c’est le cas de nombreux utilisateurs de Google qui recherchent Bing !) Nous pouvons voir clairement les 10 premiers tests lorsque les pics bleu clair montrent une augmentation correspondante des impressions.

Alors que cela semble être une quantité d’impressions juteuses pour attirer vers notre site, en réalité personne ne clique sur nous parce que les chercheurs veulent naviguer vers bing.com et non vers notre article d’information sur le Wiki. Il s’agit d’un cas évident d’intention de recherche partagée, où Google peut faire apparaître des documents d’intention variable pour essayer de répondre à ceux qui sont en dehors de ses hypothèses. Bien sûr, le CTR de 0% prouve que cette page n’a de valeur pour personne, et nous avons été rétrogradés.

Il est intéressant de noter que cette perte de position nous a coûté une tonne d’impressions. Cela a provoqué une énorme baisse de « visibilité » et a donc donné l’impression que nous avions été frappés de plein fouet par la mise à jour du noyau de janvier. En y regardant de plus près, nous avons constaté que nous venions de perdre cette position et d’autres requêtes de navigation similaires comme « gmail », ce qui a fait paraître la baisse globale des KPI pire qu’elle ne l’était. En raison du manque d’impact que cela aura sur nos clics engagés, il s’agit de classements perdus qui ne nous feront certainement pas perdre le sommeil.

Viser un classement élevé pour ces termes à fort volume de recherche avec une intention que vous ne pouvez pas satisfaire n’est utile que pour optimiser les « indices de visibilité ». Demandez-vous si cela vaut la peine de vous concentrer sur ces termes, car bien sûr, vous n’apporterez pas de clics précieux à vos pages avec eux.

Ne perdez pas de temps à poursuivre des requêtes à grand volume qui ne profiteront pas à vos objectifs commerciaux

Dans ma carrière de référenceur, j’ai parfois fait fausse route en passant du temps à optimiser des mots-clés à l’aspect juteux avec un volume de recherche très important. Le plus souvent, ces classements n’avaient que peu de valeur en termes de qualité du trafic, simplement parce que je n’évaluais pas correctement l’intention du chercheur.

De nos jours, avant d’investir mon temps, j’essaie de mieux interpréter lequel de ces termes apportera de la valeur à mon entreprise. Le mot-clé m’apportera-t-il des clics ? Ces clics resteront-ils sur mon site web pour atteindre un objectif important (c’est-à-dire un objectif pertinent) ou est-ce que je poursuis ces classements par vanité ? Évaluez toujours l’impact que ce classement élevé apportera à votre entreprise et adaptez vos stratégies en conséquence.

L’exemple suivant concerne le terme « SERP », qui est très informatif et n’est probablement utilisé que pour apprendre ce que l’acronyme signifie. Pour une telle requête, nous ne nous attendions pas à un nombre de clics écrasant, mais nous avons essayé d’utiliser de meilleurs extraits afin de transformer l’intention de réponse en intention de recherche, et donc de générer plus de visites.

Cependant, cela n’a pas vraiment fonctionné. Nous avons été pré-qualifiés en page deux, puis testés en page un (vous pouvez voir l’augmentation correspondante dans les impressions ci-dessous), mais nous n’avons pas répondu aux attentes avec un mauvais CTR de 0,1%, et nous avons été relégués au second plan.

Encore une fois, nous n’avons pas pleuré dans nos bonnes bières bavaroises sur cette perte. Il y a encore beaucoup d’autres sujets intéressants, liés à la conduite automobile, qui méritent notre attention.

Soyez toujours à l’affût de ceux qui ne sont pas performants en matière de CTR

Nous avons été heureux d’agir sur la base de l’article du wiki « meta keywords ». Avant que nous n’ayons un moment de silence pour le fait que les « meta keywords » sont encore très recherchés, remarquez comment nous sommes passés de la page quatre à la page une, tout à fait à gauche du tableau. Nous n’étions pas conscients du mouvement de ce mot-clé, et donc son simple extrait a rarement été cliqué et nous sommes retombés.

Après quelques mois, le classement de la page 1 a refait surface, et cette fois nous avons pris des mesures après l’avoir trouvé dans notre rapport CTR Underperformer Report. L’extrait était destiné à cibler l’intention du chercheur, et la page a été améliorée en parallèle pour donner une meilleure réponse directe aux questions principales.

Non seulement cela a eu un impact positif sur notre CTR, mais nous avons même obtenu le Featured Snippet. Il est très important d’identifier à temps ces dix premiers tests, afin que vous puissiez toujours agir et faire quelque chose pour rester dans le top 10.

Nous avons identifié cette requête et bien d’autres sous-estimations à l’aide du rapport CTR Underperformer Report. Ce rapport répertorie tous les CTR des requêtes et indique les endroits où nous aurions pu nous attendre à un nombre de clics plus élevé pour l’intention, les impressions et la position de ce mot-clé (un peu comme les modèles de Google visent probablement à le faire aussi). Nous utilisons largement ce rapport pour identifier les cas où nous méritons un trafic plus important, et pour nous assurer que nous restons dans le top 10 ou que nous sommes poussés encore plus haut.

Quantifier l’importance des bribes d’information

En parlant de bribes d’informations, le diagramme ci-dessous montre à quoi cela peut ressembler lorsque vous avez la chance de participer au stage ou lorsque vous ne l’avez pas. Le mot-clé « reset iphone » du blog technique d’un client avait un CTR de 20% avec le Featured Snippet, alors que sans ce dernier, il était à un triste 3%. Cela peut changer la donne pour gagner un article de fond pertinent en raison de l’impact majeur qu’il peut avoir sur votre trafic entrant.

Les « Featured Snippets » peuvent parfois avoir mauvaise réputation, car ils risquent d’entraîner un CTR plus faible qu’un résultat standard, surtout lorsqu’ils sont déclenchés pour des requêtes ayant une intention informationnelle plus élevée. Essayez de vous rappeler que les Featured Snippets peuvent mettre votre marque plus en évidence et peuvent être un grand signe de confiance pour le chercheur moyen. Même si les utilisateurs étaient satisfaits du SERP, les Featured Snippets peuvent donc apporter des avantages secondaires intéressants, tels qu’une meilleure notoriété de la marque et des conversions potentiellement plus élevées grâce à ce facteur de confiance.

Vous souhaitez trouver rapidement des opportunités de Featured Snippet pour lesquelles vous n’avez qu’à réutiliser le contenu existant ? Filtrez vos requêtes GSC à l’aide de modificateurs de questions et de comparaisons pour trouver les mots clés qui méritent d’être repris dans les Featured Snippets que vous pouvez voler rapidement.

Vous êtes dans le top 10 du matériel – et maintenant ?

Un autre de nos mots clés, « Architecture Web », illustre parfaitement pourquoi il est si important de continuer à découvrir de nouveaux sujets et de nouveaux contenus. Nous avons découvert que ce terme spécifique était en difficulté il y a un certain temps, lors de la recherche en cours sur le sujet, et nous avons entrepris d’apporter des améliorations pour le faire monter dans le top 10. Vous pouvez voir les cas révélateurs où Google a compris l’objectif, la qualité et la pertinence de ce document fraîchement renouvelé alors qu’il monte à la première page.

Nous avons obtenu de bons résultats à chacun de nos tests. Par exemple, aux positions 10-8, nous avons réussi à obtenir un CTR de 5,7%, ce qui est bon pour un tel spot.

Après avoir réussi ce test, nous avons été promus aux positions 4 à 7, où nous avons obtenu un CTR de 13 %. Quelques semaines plus tard, nous avons atteint une position moyenne de 3,2 avec un savoureux CTR de 18,7 %, et après un certain temps, nous avons même mis en sac le Featured Snippet.

Il n’a fallu que trois mois pour trouver l’occasion de gravir les échelons et obtenir le Featured Snippet.

Bien sûr, il ne s’agit pas seulement de CTR, il s’agit du long clic : C’est la principale mesure de Google qui indique qu’un site offre le meilleur résultat possible à ses utilisateurs. Combien de clics longs y a-t-il par rapport aux clics moyens, aux clics courts, et à quelle fréquence êtes-vous le dernier à démontrer que l’intention de recherche est satisfaite ? Nous avons vérifié dans Google Analytics et sur 30 000 impressions, les gens passent en moyenne cinq minutes sur cette page, c’est donc un excellent exemple de long clic positif.

Optimiser les réponses, pas seulement les pages

Il ne s’agit pas de pages, mais d’informations individuelles et de leurs réponses correspondantes qui visent à répondre à des questions.

Dans le diagramme suivant, vous pouvez voir Google ajuster les mots clés pour lesquels des pages spécifiques sont classées. Cette URL est classée pour un nombre impressionnant de 1 548 mots clés, mais en extrayant quelques uns des plus significatifs pour une analyse individuelle détaillée, nous pouvons mieux suivre la prise de décision de Google.

En comparant ces deux mots clés, vous pouvez voir que Google a promu le plus performant sur la première page, puis a poussé le plus faible vers le bas. La forte différence de CTR est due au fait que l’extrait n’était réellement orienté que vers une partie des mots-clés de son classement, ce qui a conduit Google à ajuster les classements. La question n’est pas toujours de savoir si un extrait est mauvais, mais si d’autres extraits sont meilleurs et si la requête mérite une meilleure information à la place de l’extrait.

N’oubliez pas que la qualité du site web et le référencement technique sont toujours essentiels

Une chose que nous aimons toujours souligner, c’est qu’il ne faut pas toujours juger trop vite vos données, car il pourrait y avoir des erreurs techniques sous-jacentes qui vous dépriment (telles que des migrations bâclées, des signaux de classement mixtes, des actifs bloqués, etc.)

Le cas ci-dessous illustre parfaitement pourquoi il est préférable d’analyser ces données avec un outil comme Ryte, car avec GSC vous ne verrez qu’une petite partie de ce qui se passe, et avec une vue de très haut niveau. Vous voulez pouvoir comparer les pages individuelles qui sont classées pour votre mot-clé afin de révéler ce qui est réellement à la racine du problème.

Vous êtes probablement très choqué par cette chute spectaculaire, car avant la chute, il s’agissait d’un mot-clé très performant avec un excellent CTR et un long règne en position un.

Ce mot-clé était en position un avec un CTR de 90%, mais le domaine a ensuite ajouté une directive de non-indexation à la page (facepalm). Ainsi, Google a remplacé cette URL en première position par son sous-domaine, qui était déjà en deuxième position. Cependant, la page d’accueil du sous-domaine n’était pas l’endroit idéal pour la requête, car les chercheurs ne pouvaient pas trouver l’information correcte tout de suite.

Mais la situation a empiré, car ils ont alors décidé de rediriger la page d’accueil du sous-domaine vers la page d’accueil du domaine de premier niveau. Google a donc été obligé de classer initialement une page générique qui ne contenait manifestement pas les informations correctes pour répondre à cette requête spécifique. Comme vous pouvez le voir, ils ont ensuite complètement abandonné cette position de tête, car elle n’était pas pertinente, et Google n’a pas pu récupérer la page correcte pour ce travail.

Il s’est passé quelque chose de similaire dans l’exemple suivant. Le résultat en position un pour un terme très juteux avec un CTR fantastique a soudainement renvoyé un 404, de sorte que Google a commencé à classer une page différente de ce même domaine à la place, qui était associée à un sujet légèrement similaire mais inexact. Une fois de plus, cela ne correspondait pas à la requête, de sorte que la performance globale a diminué.

C’est pourquoi il est si important de ne pas se contenter de regarder les données globales, mais d’aller plus loin, surtout si un mot-clé est classé dans plusieurs pages, afin de voir exactement ce qui se passe.

Vous avez des spams ?

Le dernier point n’est pas exactement un schéma à considérer, mais plutôt une sage leçon pour conclure tout ce que j’ai exploré dans ce billet.

À l’échelle, Google teste les pages dans les 10 premiers résultats afin de trouver le meilleur placement en fonction de cette performance. Dans cette optique, pourquoi ne pouvons-nous pas demander aux gens de se rendre sur les SERP, de cliquer sur nos résultats et de récolter les savoureux bénéfices de ce meilleur positionnement ? Ou mieux encore, pourquoi ne pas automatiser cela en permanence pour toutes nos recherches parmi les dix premières demandes testées ?

Bien sûr, cette approche est très spammeuse, contraire aux directives, et contre laquelle Google peut facilement se prémunir. Vous n’avez pas non plus besoin de tester cela, car Marcus (qui est le spécialiste du référencement le plus curieux !) l’a déjà fait.

L’un de ses propres domaines sur les offres d’emploi se classe pour le mot-clé focus des « offres d’emploi », et comme vous pouvez l’imaginer, c’est un terme très compétitif qui demande beaucoup d’efforts pour être noté. Il se classait à la position 6,6 et avait un CTR décent, mais il voulait l’optimiser encore plus et faire grimper ces SERP en position 1.

Il a artificiellement augmenté son CTR à l’aide de méthodes astucieuses qui lui ont permis d’obtenir un CTR « très crédible » de 36% en position 9. En position 10, il a obtenu un CTR de 56,6 %. Google a alors commencé à avoir vent de la manipulation du spam et l’a fait tomber dans les SERP. Leçon apprise.

Bien sûr, il s’agissait d’une expérience visant à comprendre à quel moment Google allait détecter un comportement spammé. Je n’encouragerais pas la mise en œuvre de telles tactiques dans un but de gain personnel, car il est dans l’intérêt de la santé et de l’état de votre site web de se concentrer sur la qualité de vos clics. Même si ce test fonctionnait bien et que les classements s’amélioraient, avec le temps, vos visiteurs pourraient ne pas être en résonance avec votre contenu, et Google pourrait se rappeler que cette position inférieure a été mise en place au départ pour une raison. Il s’agit d’un cycle continu.

Je vous encourage à atteindre vos résultats de manière organique. Exploitez le pouvoir de l’optimisation par extrait parallèlement aux améliorations continues du domaine et du contenu pour augmenter non seulement la quantité et la qualité de vos clics, mais aussi les expériences mêmes de votre site web qui ont un impact sur votre référencement et la croissance de votre entreprise à long terme.

Conclusion

Pour résumer, n’oubliez pas que les données sur les performances de recherche du SGC vous donnent le meilleur aperçu des performances réelles de votre site web. Les traqueurs de classement sont idéaux pour la recherche de concurrents et les clichés SERP, mais les données de position ne sont qu’un classement absolu à partir d’une variable définie comme l’emplacement et le périphérique. Utilisez vos propres données GSC pour les analyses de modèles intrinsèques, les diagnostics et la découverte de la croissance.

Mais avec de grandes données, viennent de grandes responsabilités. Assurez-vous de trouver et de comprendre les modèles dont vous devez être conscient, comme les 10 premiers tests les plus difficiles, les bribes de données les moins performantes, les défauts techniques, et tout ce qui vous prive du succès que vous vous efforcez d’obtenir.

Prêt à en savoir plus ?

Vous découvrirez encore plus de qualités en matière de référencement grâce à Izzi et à nos autres conférenciers WebsterdataCon dans le pack vidéo WebsterdataCon 2020. Au prix spécial de 129 dollars de cette année, il s’agit d’un contenu inestimable auquel vous pouvez accéder encore et encore tout au long de l’année pour inspirer et enflammer votre stratégie de référencement :

21 vidéos complètes réalisées par certains des plus brillants esprits du marketing numérique
Téléchargement et diffusion en continu sur votre ordinateur, tablette ou appareil mobile
Diapositives téléchargeables pour les présentations

Recevoir mon pack vidéo WebsterdataCon 2020

À propos d’izzismith –

Izzi est analyste SEO technique dans la startup SaaS Ryte, où elle passe son temps à résoudre des mystères SEO techniques, à partager ses connaissances et à aider les gens à créer des sites web encore plus impressionnants pour les utilisateurs et les moteurs de recherche. Izzi a pris la parole lors de nombreux événements et conférences de haut niveau dans le secteur en Europe, et a été classée plusieurs fois meilleure oratrice. Elle aime aussi faire des mèmes de référencement et explorer sa ville natale, Munich.

21
23