Google a (presque certainement) un score de qualité organique (ou quelque chose de très similaire) que les SEO doivent optimiser

Google a (presque certainement) un score de qualité organique (ou quelque chose de très similaire) que les SEO doivent optimiser

Google a (presque certainement) un score de qualité organique (ou quelque chose de très similaire) que les SEO doivent optimiser

Imaginez un instant que Google attribue un score de qualité aux résultats de recherche organique. Disons qu’il se base sur les données de clics et les mesures d’engagement, et qu’il fonctionnerait de la même manière que le score de qualité de Google AdWords. Comment un tel score pourrait-il fonctionner exactement, sur quoi serait-il basé et comment pourriez-vous l’optimiser ?

Bien qu’il n’y ait pas de preuve concrète de son existence, le score de qualité organique est un concept qui a été réfléchi par de nombreux référenceurs au fil des ans. Dans le Whiteboard Friday d’aujourd’hui, Rand examine cette théorie de fond en comble, puis donne quelques conseils sur la manière de renforcer un tel score.

Cliquez sur l’image du tableau blanc ci-dessus pour ouvrir une version haute résolution dans un nouvel onglet !

Transcription de la vidéo

Salut, fans de Websterdata, et bienvenue à une nouvelle édition de Whiteboard Friday. Cette semaine, nous allons parler du score de qualité biologique.

C’est donc un concept. Ce n’est pas une chose réelle que nous savons que Google a définitivement. Mais il y a ce concept que les SEO ressentent depuis longtemps, qui ressemble à ce que Google a dans son programme AdWords avec un score de qualité payant, où une page a un certain score qui lui est attribué, qui du côté organique Google a presque certainement quelque chose de similaire. Je vais vous donner un exemple de la façon dont cela pourrait fonctionner.

Par exemple, si sur mon site.com, j’ai ces trois éléments – c’est un site web très simpliste – mais j’ai ces trois sous-dossiers : Produits, Blog, et A propos. J’ai peut-être une page dans mes produits, 14axq.html, et elle contient certaines mesures que Google associe à cette page par le biais de l’activité qu’il a vue à partir des données du navigateur, des données de parcours, des données de recherche, et des données de visites des recherches et des rebonds vers les résultats de recherche, et toutes ces sortes de choses, toutes les données d’engagement et de clics dont nous avons beaucoup parlé cette année sur le tableau blanc vendredi.

Ils peuvent donc avoir ces mesures, le taux de pogo stick et de rebond et un taux de clic profond (le taux avec lequel quelqu’un clique sur le site et va ensuite plus loin dans la page), le temps qu’ils passent en moyenne sur le site, les navigations directes que les gens font chaque mois sur le site via leur navigateur, les impressions de recherche et les clics de recherche, peut-être un tas d’autres statistiques, comme le fait de savoir si les gens recherchent directement cette URL, s’ils effectuent des recherches de marque. Quel est le taux d’utilisation de dispositifs uniques dans un domaine par rapport à un autre domaine ? Y a-t-il un biais basé sur la géographie, le type d’appareil, la personnalisation ou toutes ces choses ?

Mais indépendamment de cela, vous avez l’impression que Google a ce genre d’idée sur les performances de la page dans ses résultats de recherche. Cela peut être très différent d’une page à l’autre et évidemment très différent d’un site à l’autre. Alors peut-être que cet article de blog, ici sur /blog, est beaucoup, beaucoup plus performant dans toutes ces mesures et obtient un score de qualité beaucoup plus élevé.

Les théories actuelles de référencement sur la notation de la qualité organique :

Maintenant, lorsque nous parlons aux OMR, et je passe beaucoup de temps à parler à mes collègues OMR des théories qui s’y rapportent, quelques éléments ressortent. Je pense que la plupart des gens sont généralement d’avis que s’il y a quelque chose comme un score de qualité organique…

1. Il est probablement basé sur ce type de données – requêtes, clics, engagements, données de visite d’une sorte ou d’une autre.

Nous ne doutons pas une minute que Google est beaucoup plus sophistiqué que les choses super-simplifiées que je vous montre ici. Je pense que Google nie publiquement beaucoup de types de mesures uniques comme « Non, nous n’utilisons pas de temps sur le site ». Le temps passé sur le site peut être très variable, et parfois un temps de présence réduit est en fait une bonne chose ». Très bien. Mais il y a quelque chose là-dedans, n’est-ce pas ? Ils utilisent un format plus sophistiqué.

2. Nous sommes également presque sûrs que cela s’applique à trois niveaux différents :

C’est une observation issue de l’expérimentation ainsi que des déclarations de Google qui est…

A l’échelle du domaine, c’est-à-dire à l’échelle d’un domaine, s’il y a beaucoup de pages avec des scores de qualité élevés, Google pourrait considérer ce domaine différemment d’un domaine avec une variété de scores de qualité ou un domaine avec des scores généralement faibles.
C’est la même chose pour un sous-domaine. Il se peut donc qu’un sous-domaine soit considéré différemment du domaine principal, ou que deux sous-domaines différents soient considérés différemment. Si un contenu semble avoir un score de qualité élevé dans ce domaine, mais pas dans celui-ci, Google pourrait généralement ne pas transmettre tous les signaux de classement ou ne pas donner le même poids aux scores de qualité de ce domaine ou du sous-domaine.
Il en va de même pour les sous-domaines, mais dans une moindre mesure. En fait, c’est en quelque sorte par ordre décroissant. Vous pouvez donc généralement supposer que Google les transmettra davantage à travers les sous-dossiers qu’à travers les sous-domaines et davantage à travers les sous-domaines qu’à travers les domaines racine.
3. Une densité plus élevée de bonnes notes par rapport aux mauvaises peut signifier un tas de bonnes choses :
Plus de classements en visibilité, même sans autres signaux. Ainsi, même si une page est en quelque sorte dépourvue de ces autres signaux de qualité, si elle se trouve dans cette section de blog, cette section de blog a tendance à avoir des scores de qualité élevés pour toutes les pages, Google pourrait donner à cette page une occasion de bien se classer qu’elle ne le ferait pas normalement pour une page avec ces signaux de classement dans un autre sous-dossier ou dans un autre sous-domaine ou sur un autre site web entièrement.
Une sorte de « bénéfice du doute » – une sorte de coup de pouce, même pour les nouvelles pages. Ainsi, une nouvelle page est produite. Elle n’est pas encore associée à des signaux de qualité, mais elle se comporte particulièrement bien.

Par exemple, quelques minutes après la publication de ce Whiteboard Friday sur le site de Websterdata, qui a lieu généralement tard dans la nuit de jeudi à vendredi ou très tôt le matin, du moins à l’heure du Pacifique, je parie que vous pouvez rechercher « Google organic quality score » ou même simplement « organic quality score » dans le moteur de Google, et ce Whiteboard Friday fonctionne très bien. L’une des raisons en est probablement que, parce que de nombreuses autres vidéos du Whiteboard Friday, qui se trouvent dans ce même sous-dossier, ont été très bien classées par Google dans les résultats de recherche. Elles ont tout ce que vous voulez pour les appeler – d’excellents indicateurs, un score de qualité organique élevé – et pour cette raison, ce Whiteboard Friday que vous regardez en ce moment, l’URL que vous voyez dans la barre ci-dessus va presque certainement être bien classée, peut-être dans cette position numéro un, même si elle est toute nouvelle. Elle n’a pas encore reçu les signaux de qualité, mais Google suppose qu’elle a le bénéfice du doute en raison de l’endroit où elle se trouve.
Nous supposons que les liens, internes et externes, des pages ayant obtenu un score de qualité élevé ont également plus de valeur. C’est pour l’instant une supposition, mais nous espérons la valider davantage, car nous avons vu certains signes et certains tests qui montrent que c’est le cas.
3 façons de renforcer votre score de qualité biologique

Si c’est vrai – et c’est à vous de décider si vous voulez le croire ou non – même si vous ne le croyez pas, vous avez presque certainement vu des signes que quelque chose comme ça se passe. Je vous invite à faire ces trois choses pour améliorer votre score de qualité biologique ou tout ce qui, selon vous, est à l’origine de ces mêmes éléments.

1. Vous pourriez ajouter des pages plus performantes. Ainsi, si vous savez que les pages sont performantes et que vous savez à quoi elles ressemblent par rapport à celles qui sont moins performantes, vous pouvez en faire plus de bonnes.

2. Vous pouvez améliorer le score de qualité des pages existantes. Si ce score est plutôt faible, vous voyez que ces mesures d’engagement et d’utilisation, les mesures du taux de clics du SERP, les mesures du taux de rebond des visites de recherche organique, tout cela n’est pas très bon en comparaison avec vos autres produits, vous pouvez l’améliorer, améliorer le contenu, améliorer la navigation, améliorer la convivialité et l’expérience utilisateur de la page, le temps de chargement, les visuels, tout ce que vous avez pour retenir l’attention des chercheurs plus longtemps, pour les garder engagés, et pour vous assurer que vous résolvez leur problème. En faisant cela, vous obtiendrez des scores de qualité plus élevés.

3. Supprimez les pages peu performantes par divers moyens. Vous pouvez prendre une page peu performante et dire : « Hé, je vais rediriger cette page vers une autre, qui répond mieux à la requête de toute façon ». Ou encore : « Hé, je vais rediriger cette page vers la 404. Je n’en ai plus besoin. En fait, personne n’en a plus besoin ». Ou, « Je ne vais pas l’indexer. Certaines personnes peuvent en avoir besoin, peut-être les visiteurs de mon site web, qui en ont besoin pour une navigation directe particulière ou à des fins internes. Mais Google n’a pas besoin de le voir. Les chercheurs n’ont pas besoin de le voir. Je vais utiliser le no index, soit dans la balise meta robots, soit dans le fichier robots.txt« .

Une chose vraiment intéressante à noter est que nous avons vu un tas d’études de cas, en particulier depuis WebsterdataCon, où Britney Muller, la responsable du référencement de Websterdata, a fait part du fait qu’elle avait fait d’excellents tests pour supprimer des dizaines de milliers de pages de mauvaise qualité et très peu performantes du propre site web de Websterdata et a vu notre classement et notre trafic pour le reste de notre contenu augmenter de manière assez significative, même en contrôlant la saisonnalité et d’autres choses.

C’était assez excitant. Lorsque nous avons partagé cela, un groupe de personnes du public et de Twitter nous ont dit : « J’ai fait la même chose. Lorsque j’ai supprimé les pages peu performantes, le reste de mon site a été plus performant », ce qui suggère fortement qu’il y a quelque chose comme un système qui fonctionne de cette façon.

Je vous invite donc à examiner vos mesures, à trouver les pages qui ne sont pas performantes, à voir ce que vous pouvez faire pour les améliorer ou les supprimer, à voir ce que vous pouvez faire pour en ajouter de nouvelles qui ont un score de qualité organique élevé, et à me faire part de vos réflexions à ce sujet dans les commentaires.

Nous nous réjouissons de vous revoir la semaine prochaine pour une nouvelle édition de « Whiteboard Friday ». Prenez soin de vous.

Transcription de la vidéo par Speechpad.com

63
80