Une analyse complète de la nouvelle autorité des domaines

Une analyse complète de la nouvelle autorité des domaines

Une analyse complète de la nouvelle autorité des domaines

L’autorité des domaines de Websterdata est sollicitée plus de 1 000 000 000 fois par an, elle est référencée des millions de fois sur le web et elle est devenue un véritable nom familier parmi les optimiseurs de moteurs de recherche pour divers cas d’utilisation, de la détermination du succès d’une campagne de création de liens à la qualification des domaines pour l’achat. Avec le lancement de l’index de liens de Websterdata, entièrement nouveau, amélioré et beaucoup plus grand, nous avons reconnu l’opportunité de revisiter Domain Authority avec la même rigueur que celle que nous avions il y a quelques années (qui a inauguré l’ère des données de mots-clés modélisées par le clickstream).

Ce qui suit est un traitement rigoureux de la nouvelle métrique de l’Autorité des domaines. Ce que je ne ferai pas dans cet article, c’est de relancer le débat sur l’importance de l’autorité de domaine ou sur les cas d’utilisation correcte de cette autorité. J’ai déjà abordé et j’aborderai ces questions en détail dans un prochain article. J’ai plutôt l’intention de consacrer les paragraphes suivants à la nouvelle mesure de l’Autorité du domaine, en partant de plusieurs directions.

Corrélations entre les classements de l’AD et du SERP

L’élément le plus important de l’autorité de domaine est la qualité de sa corrélation avec les résultats de recherche. Mais d’abord, écartons l’objection de la corrélation contre la cause : L’autorité de domaine n’est pas à l’origine des classements de recherche. Il ne s’agit pas d’un facteur de classement. Domain Authority prédit la probabilité qu’un domaine soit surclassé par un autre. Cela étant dit, son utilité en tant que mesure est en grande partie liée à cette valeur. Plus la corrélation est forte, plus l’autorité de domaine est utile pour prédire les classements.

Méthodologie

La détermination de la « corrélation » entre une mesure et le classement du SERP a été réalisée de nombreuses manières différentes au fil des ans. Faut-il comparer avec la « vraie première page », le top 10, le top 20, le top 50 ou le top 100 ? Combien de SERP devons-nous collecter pour que nos résultats soient statistiquement significatifs ? Il est important que je vous expose la méthodologie de reproductibilité et que je vous fasse part de mes commentaires ou préoccupations concernant les techniques utilisées. Pour les besoins de cette étude, j’ai choisi d’utiliser la « vraie première page ». Cela signifie que les SERP ont été recueillis en utilisant uniquement le mot-clé sans paramètres supplémentaires. J’ai choisi d’utiliser cet ensemble de données particulier pour un certain nombre de raisons :

La véritable première page est ce que la plupart des utilisateurs vivent, donc le pouvoir prédictif de l’Autorité du domaine sera axé sur ce que les utilisateurs voient.
En n’utilisant aucun paramètre particulier, nous avons de fortes chances d’obtenir les résultats typiques de Google. 
En ne dépassant pas la véritable première page, nous éviterons probablement les sites pénalisés manuellement (ce qui peut avoir un impact sur les corrélations avec les liens).
Nous n’avons PAS utilisé le même ensemble de formation ou la même taille d’ensemble de formation que pour cette étude de corrélation. C’est-à-dire que nous nous sommes entraînés sur les 10 premiers mais que nous signalons les corrélations sur la véritable première page. Cela nous évite d’avoir un résultat trop biaisé par rapport à notre modèle. 

J’ai sélectionné au hasard 16 000 mots-clés dans le corpus de mots-clés des États-Unis pour Keyword Explorer. J’ai ensuite recueilli la véritable première page pour tous ces mots clés (complètement différents de ceux utilisés dans le jeu de formation.) J’ai extrait les URL, mais j’ai également choisi de supprimer les domaines en double (c’est-à-dire si le même domaine apparaît, l’un après l’autre.) Pendant un certain temps, Google avait l’habitude de regrouper les domaines dans les SERP dans certaines circonstances. Il était facile de repérer ces regroupements, car la deuxième liste et les suivantes étaient en retrait. De telles indentations n’existent plus, mais nous ne pouvons pas être certains que Google ne regroupe jamais de domaines. S’il le fait, il ne pourra pas établir de corrélation, car c’est le regroupement et non l’algorithme traditionnel basé sur les liens qui fait le travail.

J’ai collecté l’autorité du domaine (Websterdata), le flux de citations et de confiance (Majestic) et le rang du domaine (Ahrefs) pour chaque domaine et j’ai calculé le coefficient de corrélation Spearman moyen pour chaque SERP. J’ai ensuite calculé la moyenne des coefficients pour chaque mesure.

Résultat

La nouvelle autorité de domaine de Websterdata a les plus fortes corrélations avec les SERPs des mesures concurrentes basées sur les liens de force de domaine dans l’industrie. Le signe (-/+) a été inversé dans le graphique pour des raisons de lisibilité, bien que les coefficients réels soient négatifs (et devraient l’être).

La Domain Authority de Websterdata a obtenu un score de ~.12, soit environ 6% de plus que le concurrent suivant (Domain Rank by Ahrefs.) La Domain Authority a fait 35% de mieux que CitationFlow et 18% de mieux que TrustFlow. Cela n’est pas surprenant, dans la mesure où Domain Authority est formé pour prédire les classements alors que les mesures de force de domaine de notre concurrent ne le sont pas. Il ne faut pas considérer comme négatif le fait que les mesures de force de domaine de nos concurrents ne sont pas aussi fortement corrélées que celles de Websterdata’s Domain Authority – il s’agit simplement d’un exemple des différences intrinsèques entre les mesures. Cela étant dit, si vous voulez une mesure qui prévoie au mieux les classements au niveau du domaine, Domain Authority est cette mesure.

Note : A première vue, les améliorations de Domain Authority par rapport à la concurrence sont franchement décevantes. La vérité est que nous pourrions très facilement augmenter la corrélation davantage, mais cela risquerait de surajuster et de compromettre un objectif secondaire de Domain Authority…

Manipuler la manipulation des liens

Historiquement, Domain Authority s’est concentré sur une seule caractéristique : maximiser la capacité prédictive de la métrique. Tout ce que nous voulions, c’était les corrélations les plus élevées. Cependant, Domain Authority est devenu, pour le meilleur ou pour le pire, synonyme de « valeur du domaine » dans de nombreux secteurs, comme chez les acheteurs de liens et les domainers. Par la suite, aussi bizarre que cela puisse paraître, Domain Authority a lui-même été ciblé pour le spam afin de renforcer le score et de vendre à un prix plus élevé. Si ces techniques de manipulation grossière des liens n’ont pas fonctionné aussi bien dans Google, elles ont suffi à augmenter Domain Authority. Nous avons décidé de freiner cette tendance. 

Les ensembles de données

La première chose que nous avons faite a été de compiler une série d’ensembles de données correspondant aux industries sur lesquelles nous souhaitions avoir un impact, sachant que l’Autorité des domaines était régulièrement manipulée dans ces cercles.

Domaines aléatoires
Clients Websterdata
Spam de commentaire de blog
Domaines de faible qualité mis aux enchères
Domaines d’enchères de qualité moyenne
Des domaines de haute qualité pour les enchères
Vendeurs de liens connus
Acheteurs de liens connus
Réseau de domaines
Réseau de liens

Je préférerais que tous les ensembles de données soient publiés, mais j’ai choisi de ne pas le faire afin de ne pas « sortir » un site web en particulier. J’ai plutôt choisi de fournir ces ensembles de données à un certain nombre de spécialistes du marketing des moteurs de recherche pour validation. Le seul ensemble de données qui n’a pas été proposé pour une validation externe était celui des clients de Websterdata, pour des raisons évidentes.

Méthodologie

Pour chacun des ensembles de données ci-dessus, j’ai recueilli les scores de l’ancienne et de la nouvelle autorité de domaine. Tout cela a été fait le 28 février afin d’avoir la parité pour tous les tests. J’ai ensuite calculé la différence relative entre l’ancienne DA et la nouvelle DA au sein de chaque groupe. Enfin, j’ai comparé les résultats des différents ensembles de données les uns par rapport aux autres afin de confirmer que le modèle tient compte des différentes méthodes de gonflage de l’autorité de domaine.

Résultats

Dans le graphique ci-dessus, le bleu représente l’ancienne autorité moyenne de domaine pour cet ensemble de données et l’orange représente la nouvelle autorité moyenne de domaine pour ce même ensemble de données. Une caractéristique immédiatement perceptible est que chaque catégorie est abandonnée. Même les domaines aléatoires disparaissent. Il s’agit d’un recentrage du score de l’autorité de domaine et ne devrait pas alarmer les webmasters. Il y a, en moyenne, une réduction de 6% de l’autorité de domaine pour les domaines sélectionnés au hasard sur le web. Ainsi, si votre Autorité de domaine baisse de quelques points, vous êtes bien dans la fourchette de la normale. Maintenant, examinons les différents ensembles de données individuellement.


Domaines aléatoires : -6.1%

En utilisant la même méthodologie de recherche de domaines aléatoires que celle que nous utilisons pour la collecte de statistiques de liens comparatifs, j’ai sélectionné 1 000 domaines, nous avons pu déterminer qu’il y a, en moyenne, une baisse de 6,1 % de Domain Authority. Il est important que les webmasters le reconnaissent, car ce changement risque d’affecter la plupart des sites et il n’y a pas lieu de s’inquiéter.  

Clients Websterdata : -7,4%.

L’intérêt immédiat de Websterdata est de savoir comment nos propres clients se comportent par rapport à l’ensemble aléatoire des domaines. En moyenne, l’autorité de domaine des clients Websterdata a diminué de 7,4 %. Ce chiffre est très proche de l’ensemble aléatoire d’URL et indique que la plupart des clients Websterdata n’utilisent probablement pas de techniques pour manipuler l’autorité de domaine dans une large mesure.  

Acheteurs de liens : -15,9%.

Étonnamment, les acheteurs de liens n’ont perdu que 15,9 % de leur autorité de domaine. Rétrospectivement, cela semble raisonnable. Tout d’abord, nous nous sommes penchés sur les acheteurs de liens des réseaux de blogs, qui ne sont pas aussi spammeurs que beaucoup d’autres techniques. Deuxièmement, la plupart des sites qui paient pour des liens optimisent également le contenu de leur site, ce qui signifie que les sites se classent, parfois assez bien, dans Google. Comme Domain Authority s’entraîne en fonction des classements réels, on peut raisonnablement s’attendre à ce que l’ensemble des données des acheteurs de liens ne soit pas aussi touché que les autres techniques, car le réseau neuronal apprend que certains modèles d’achat de liens fonctionnent réellement. 

Commentaires des spammeurs : -34%.

C’est là que le plaisir commence. Le réseau neuronal derrière Domain Authority a réussi à faire baisser de 34% la moyenne des commentaires des spammeurs. J’ai été particulièrement satisfait de celui-ci en raison de tous les types de manipulation de liens abordés par Domain Authority, le spam de commentaires n’est, à mon avis, pas mieux que le vandalisme. J’espère que cela aura un impact positif sur la diminution du spam de commentaires – chaque petit détail compte. 

Vendeurs de liens : -56%.

J’ai d’ailleurs été assez surpris, au début, que les vendeurs de liens aient chuté de 56% en moyenne dans les Domain Authority. Je savais que les vendeurs de liens participaient souvent à des programmes de liens (normalement en interconnectant leurs propres réseaux de blogs pour constituer des AD) afin de pouvoir facturer des prix plus élevés. Cependant, il ne m’est pas venu à l’esprit que les vendeurs de liens seraient plus faciles à repérer parce qu’ils n’optimisent pas explicitement leurs propres sites au-delà des liens. Par la suite, les vendeurs de liens ont tendance à avoir des profils de liens gonflés, faux et un contenu peu solide, ce qui signifie qu’ils ont tendance à ne pas être classés dans Google. S’ils ne se classent pas, le réseau neuronal derrière Domain Authority est susceptible de reprendre la tendance. Il sera intéressant de voir comment le marché réagira à un changement aussi radical de Domain Authority.

Domaines de haute qualité mis aux enchères : -61%

L’une des caractéristiques dont je suis le plus fier en ce qui concerne l’autorité de domaine est qu’elle a traité efficacement la manipulation des liens dans l’ordre de notre intuition concernant la qualité. J’ai créé trois ensembles de données différents à partir d’un ensemble de données plus large (domaines aux enchères), où j’ai utilisé certains qualificatifs comme le prix, le TLD et le statut archive.org pour qualifier chaque domaine de haute, moyenne et basse qualité. En théorie, si le réseau neuronal fait correctement son travail, nous devrions voir que les domaines de haute qualité sont les moins touchés et que les domaines de basse qualité sont les plus touchés. C’est exactement le schéma qui a été rendu par le nouveau modèle. Les domaines de haute qualité mis aux enchères ont chuté en moyenne de 61% dans l’autorité des domaines. Cela semble vraiment élevé pour les domaines de « haute qualité », mais même un coup d’œil rapide aux profils des liens des domaines qui sont en vente à plus de 10 000 dollars montre une manipulation évidente des liens. L’industrie des « domainer », et en particulier celle des « domainer-for-SEO », regorge de spam. 

Réseau de liens : -79%.

Il y a un réseau sur le web qui me préoccupe plus que tout autre. Je ne le nommerai pas, mais il est particulièrement pernicieux car les sites de ce réseau sont tous reliés aux 1 000 000 de sites les plus importants du web. Si votre site figure dans le top 1 000 000 du web, vous verrez probablement des centaines de domaines de liens racine de ce réseau, quel que soit l’index de liens que vous consultez (Websterdata, Majestic ou Ahrefs). Vous pouvez imaginer ma joie de voir que le nombre de domaines autorisés a chuté d’environ 79 %, et ce à juste titre, car la grande majorité de ces sites ont été interdits par Google.

Les domaines de qualité moyenne mis aux enchères : -95%

Si l’on poursuit dans la même veine que pour la qualité des domaines mis aux enchères, on constate que les domaines « de qualité moyenne » ont chuté de près de 95 % au sein de Domain Authority. C’est énorme. Il faut garder à l’esprit que ces baisses drastiques ne sont pas combinées à des pertes en corrélation avec les SERP ; le réseau neuronal apprend plutôt à distinguer les profils de backlink de manière beaucoup plus efficace, en séparant le bon grain de l’ivraie. 

Réseaux de domaines : -97%

Si vous passez un peu de temps à regarder les domaines abandonnés, vous êtes probablement tombé sur un réseau de domainer où il y a une série de sites énumérés et tous reliés entre eux. Par exemple, le premier site pourrait être sbt001.com, puis sbt002.com, et ainsi de suite pour des milliers de domaines. Bien qu’il soit évident pour les humains de regarder cela et de voir un schéma, l’autorité des domaines a dû apprendre que ces techniques ne sont pas en corrélation avec les classements. C’est ce que fait la nouvelle Domain Authority, en supprimant de 97 % en moyenne les réseaux de « domainer » que nous avons analysés.

Des domaines de faible qualité mis aux enchères : -98%

Enfin, les pires délinquants – les domaines de faible qualité mis aux enchères – ont chuté de 98 % en moyenne. L’autorité des domaines ne peut pas être trompée comme elle l’a été par le passé. Il faut acquérir de bons liens dans les bonnes proportions (selon un modèle naturel et des sites déjà classés) si l’on veut obtenir un bon score de Domain Authority. 

Qu’est-ce que cela signifie ?

Pour la plupart des webmasters, cela signifie très peu. Votre autorité de domaine peut baisser un peu, mais celle de vos concurrents aussi. Pour les optimiseurs de moteurs de recherche, en particulier les consultants et les agences, cela signifie beaucoup. Les inventaires des vendeurs de liens connus vont probablement diminuer considérablement du jour au lendemain. Les liens DA élevés deviendront beaucoup plus rares. Il en va de même pour ceux qui tentent de construire des réseaux de blogs privés (PBN). Bien sûr, l’autorité de domaine ne provoque pas de classement, donc elle n’aura pas d’impact sur votre classement actuel, mais elle devrait donner aux consultants et aux agences une mesure beaucoup plus intelligente pour évaluer la qualité.

Quels sont les meilleurs cas d’utilisation de l’autorité de domaine ?
Comparez les changements de votre Domain Authority avec ceux de vos concurrents. Si vous baissez ou augmentez sensiblement plus, cela pourrait indiquer qu’il y a des différences importantes dans votre profil de lien.
Comparez les changements de votre autorité de domaine au fil du temps. La nouvelle autorité de domaine sera également mise à jour historiquement, afin que vous puissiez suivre votre autorité de domaine. Si votre autorité de domaine diminue avec le temps, notamment par rapport à vos concurrents, vous devez probablement vous lancer dans des activités de sensibilisation.
Évaluez la qualité des liens lorsque vous cherchez à acquérir des domaines abandonnés ou mis aux enchères. Ceux qui cherchent à acquérir des domaines abandonnés ou mis aux enchères disposent désormais d’un outil beaucoup plus puissant pour évaluer la qualité. Bien entendu, l’évaluation de la qualité d’un lien ou d’un domaine ne doit pas être le principal critère de mesure, mais elle doit figurer dans la boîte à outils de tout webmaster.
À quoi devons-nous nous attendre à l’avenir ?

Nous n’allons pas nous reposer. Un changement philosophique important a eu lieu chez Websterdata en ce qui concerne l’autorité de domaine. Dans le passé, nous pensions qu’il était préférable de garder l’autorité de domaine statique, en mettant rarement à jour le modèle, afin de donner aux utilisateurs une comparaison de pommes à pommes. Avec le temps, cependant, cela signifiait que l’autorité de domaine deviendrait moins pertinente. Compte tenu de la rapidité avec laquelle Google met à jour ses résultats et ses algorithmes, la nouvelle Domain Authority sera beaucoup plus agile, car nous lui donnerons de nouvelles fonctionnalités, nous la formerons plus fréquemment et nous répondrons aux changements algorithmiques de Google. Nous espérons qu’elle vous plaira.

Utilisez le lien ci-dessous pour vous inscrire à notre webinaire à la demande sur les stratégies et les cas d’utilisation de la nouvelle Autorité de domaine :

Garder ma place

Note de l’éditeur : Curieux de savoir comment voir le score de sa propre autorité de domaine ? Link Explorer est notre outil de vérification de l’autorité de domaine. Vous pouvez également trouver des mesures d’autorité de domaine en utilisant la WebsterdataBar, dans les campagnes Websterdata Pro, et à d’autres endroits sur le web.

À propos de rjonesx –

Je suis Russ Jones, chercheur principal chez System1 et chercheur adjoint chez Websterdata. J’ai trois filles extraordinaires, Claren, Aven et Ellis, une femme incomparable, Morgan, et je suis un nerd chrétien et démocrate qui ne sait souvent pas quand fermer sa bouche 🙂

56
145