Classement des 6 outils les plus précis en matière de difficulté des mots-clés

Classement des 6 outils les plus précis en matière de difficulté des mots-clés

Classement des 6 outils les plus précis en matière de difficulté des mots-clés

En janvier 2018, Brafton a lancé une campagne massive de ciblage organique par mots-clés, qui a permis de publier plus de 90 000 mots de contenu de blog.

Cela a-t-il fonctionné ?

Eh bien, oui. Nous avons doublé le nombre total de mots-clés que nous avons classés en moins de six mois. En utilisant notre processus avancé de recherche de mots-clés et de rédaction de sujets publié plus tôt cette année, nous avons également augmenté notre trafic organique de 45 % et le nombre de mots-clés se classant dans les dix premiers résultats de 130 %.

Mais nous avons obtenu bien plus que du simple trafic.

De la planification à l’exécution et au suivi des performances, nous avons méticuleusement consigné tous les aspects du projet. Je parle du nombre de mots du blog, des scores de performance de MarketMuse, des scores de référencement des pages, des jours indexés sur Google. Nous l’avons enregistré.

Grâce à cette méthode, nous avons pu établir de juteuses corrélations entre les classements de nos mots clés cibles et les variables qui peuvent affecter et prédire ces classements. Mais pour cette pièce en particulier…

Comment les outils de recherche par mot-clé peuvent prédire votre classement.

Un peu de contexte

Nous avons créé une liste de mots-clés que nous voulions cibler dans les blogs en nous basant sur des combinaisons optimales de volume de recherche, de scores de difficulté des mots-clés organiques, d’encombrement du SERP et d’intention des chercheurs.

Nous avons ensuite rédigé un billet de blog ciblant chaque mot clé individuellement. Nous voulions que chaque nouveau contenu de blog soit classé en fonction du mot-clé ciblé.

Avec notre liste de mots clés en main, mon collègue et moi avons créé manuellement des résumés de contenu expliquant comment nous aimerions que chaque billet soit rédigé pour maximiser la probabilité de classement pour le mot clé cible. Voici un exemple d’un briefing type que nous donnerions à un rédacteur :

Cette image renvoie à un exemple de résumé de contenu que Brafton remet aux rédacteurs.

Entre la mi-janvier et la fin mai, nous avons fini par rédiger 55 billets de blog, chacun ciblant 55 mots-clés uniques. 50 de ces articles se sont retrouvés dans le top 100 des résultats de Google.

Nous avons ensuite fait une pause et pris un instantané de la position de chaque URL dans le classement Google pour son mot-clé cible et de ses scores de difficulté organique correspondants de Websterdata, SEMrush, Ahrefs, SpyFu et KW Finder. Nous avons également pris les scores de compétition PPC de l’outil de planification des mots-clés.

Notre intention était d’établir des corrélations statistiques entre notre classement par mot-clé et le score de difficulté organique de chaque outil. Grâce à ces données, nous avons pu rendre compte de la précision avec laquelle chaque outil a prédit où nous nous situerions.

Cette étude est uniquement scientifique, dans la mesure où chaque blog avait une cible de mots-clés spécifique. Nous avons optimisé le contenu du blog spécifiquement pour ce mot-clé. Par conséquent, chaque billet a été créé de manière similaire.

Les outils de recherche par mot-clé fonctionnent-ils vraiment ?

Nous les utilisons tous les jours, en toute confiance. Mais quelqu’un a-t-il déjà demandé, ou mieux encore, mesuré à quel point les outils de recherche par mot-clé rendent compte de la difficulté organique d’un mot-clé donné ?

Aujourd’hui, c’est exactement ce que nous faisons. Alors coupons court aux bavardages et allons aux résultats…

Alors que Websterdata remporte le prix de l’outil de recherche par mot-clé le plus performant, notez que tout outil de recherche par mot-clé doté d’une fonctionnalité de difficulté organique vous donnera un avantage par rapport à un jeu de pièces (ou à l’utilisation de l’outil Google Keyword Planner).

Comme vous le verrez dans les paragraphes suivants, nous avons soumis chaque outil à une batterie de tests statistiques afin de nous assurer que nous avons peint une représentation juste et précise de ses performances. Je vous fournirai même les données brutes pour que vous puissiez les vérifier par vous-même.

Allons-y !

Le coefficient de corrélation de Pearson

Oui, des statistiques ! Pour ceux d’entre vous qui sont actuellement paniqués et qui lancent des obscénités sur leur écran, ne vous inquiétez pas – nous allons traverser cela ensemble.

Afin de comprendre la relation entre deux variables, notre première étape consiste à créer un diagramme de dispersion.

Vous trouverez ci-dessous le diagramme de dispersion de nos 50 classements de mots-clés comparés à leurs scores de difficulté organique Websterdata correspondants.

Nous commençons par une inspection visuelle des données afin de déterminer s’il existe une relation linéaire entre les deux variables. Idéalement, pour chaque outil, vous devriez voir la variable X (classement par mot-clé) augmenter proportionnellement à la variable Y (difficulté organique). En d’autres termes, si l’outil fonctionne, plus la difficulté du mot-clé est élevée, moins vous aurez de chances de vous classer en première position, et vice-versa.

Ce tableau est très bien, mais il n’est pas très scientifique. C’est là que le coefficient de corrélation de Pearson (PCC) entre en jeu.

Ouf. Toujours avec moi ?

Ainsi, chacun de ces diagrammes de dispersion aura un score PCC correspondant qui nous indiquera dans quelle mesure chaque outil a prédit où nous nous classerions, en fonction de son score de difficulté de mot-clé.

Nous utiliserons le tableau suivant, tiré de statisticshowto.com, pour interpréter le score PCC de chaque outil :

Coefficient de corrélation R Score

Clé

.70 ou plus

Une relation positive très forte

.40 à +.69

Une relation positive forte

.30 à +.39

Relation positive modérée

.20 à +.29

Faible relation positive

0,01 à +0,19

Absence de relation ou relation négligeable

0

Pas de relation [corrélation nulle]

-de 0,01 à 0,19

Absence de relation ou relation négligeable

de -0,20 à -0,29

Faible relation négative

de -0,30 à -0,39

Relation négative modérée

de -0,40 à -0,69

Forte relation négative

-.70 ou plus

Une relation négative très forte

Afin de comprendre visuellement à quoi ressembleraient certaines de ces relations sur un nuage de points, consultez ces exemples de graphiques de Laerd Statistics.

Et voici quelques exemples de graphiques avec leurs scores PCC corrélés (r) :

Plus les chiffres se rapprochent de la ligne de régression sur une pente positive ou négative, plus la relation est forte.

C’était la partie difficile – vous êtes toujours avec moi ? Super, maintenant regardons les résultats de chaque outil.

Test 1 : Le coefficient de corrélation de Pearson

Maintenant que nous avons tous suivi notre cours de recyclage sur les statistiques, nous allons examiner les résultats, par ordre de performance. Nous évaluerons le score PCC de chaque outil, la signification statistique des données (P-val), la force de la relation et le pourcentage de mots-clés pour lesquels l’outil a pu trouver et rapporter des valeurs de difficulté.

Par ordre de performance :

#1 : Websterdata

En revoyant le diagramme de dispersion de Websterdata, nous observons un regroupement serré des résultats par rapport à la ligne de régression avec quelques valeurs aberrantes modérées.

Difficulté organique de Websterdata Prévisibilité

PCC

0.412

P-val

.003 (P<0.05)

Relation

Fort

Mots clés appariés

100.00%

Websterdata est arrivé en tête avec le PCC le plus élevé, soit 0,412. En prime, Websterdata saisit les données sur la difficulté des mots-clés en temps réel, plutôt que dans une base de données fixe. Cela signifie que vous pouvez obtenir n’importe quel score de difficulté pour n’importe quel mot-clé.

En d’autres termes, Websterdata a été capable de générer des scores de difficulté pour 100% des 50 mots-clés étudiés.

#2 : SpyFu

Visuellement, SpyFu montre un regroupement assez serré parmi les mots-clés de faible difficulté, et quelques valeurs aberrantes modérées parmi les mots-clés de plus grande difficulté.

Prévisibilité de la difficulté organique de SpyFu

PCC

0.405

P-val

.01 (P<0.05)

Relation

Fort

Mots clés appariés

80.00%

SpyFu est arrivé juste derrière Websterdata avec un PCC (0,405) plus faible de 1,7 %. Cependant, l’outil s’est heurté au plus grand problème de correspondance des mots-clés, avec seulement 40 des 50 mots-clés produisant des scores de difficulté de mot-clé.

#3 : SEMrush

SEMrush bénéficierait certainement d’un couple de mulligans (une seconde chance de réaliser une action). Le coefficient de corrélation est très sensible aux valeurs aberrantes, ce qui a fait chuter le score de SEMrush à la troisième place (.364).

Difficulté organique de SEMrush Prévisibilité

PCC

0.364

P-val

.01 (P<0.05)

Relation

Modéré

Mots clés appariés

92.00%

Ce qui complique encore le processus de recherche, seuls 46 des 50 mots-clés ont été associés à des scores de difficulté, et beaucoup d’entre eux ont dû être trouvés individuellement grâce à la fonction « phrase match » de SEMrush, plutôt que par l’outil de difficulté.

Le processus était plus laborieux pour trouver des données.

#N°4 : KW Finder

KW Finder aurait certainement pu bénéficier de plus que quelques mulligans avec de nombreuses fortes valeurs aberrantes, arrivant juste derrière SEMrush avec un score de .360.

Difficulté organique de prédiction de KW Finder

PCC

0.360

P-val

.01 (P<0.05)

Relation

Modéré

Mots clés appariés

100.00%

Heureusement, l’outil KW Finder a eu un taux de concordance de 100 % sans aucun problème pour trouver les données.

#N°5 : Ahrefs

Ahrefs arrive en cinquième position, avec une marge importante de 0,316, dépassant à peine le seuil de la « relation faible ».

Ahrefs Difficulté organique Prévisibilité

PCC

0.316

P-val

.03 (P<0.05)

Relation

Modéré

Mots clés appariés

100%

Sur une note positive, l’outil semble être très fiable avec des scores de difficulté faibles (remarquez le regroupement serré pour les scores de difficulté faibles), et correspond aux 50 mots-clés.

#N° 6 : Outil Google Keyword Planner

Avant que vous ne posiez la question, oui, les entreprises de référencement utilisent toujours les chiffres de la concurrence payante de l’outil de planification des mots-clés de Google (et d’autres outils) pour évaluer le potentiel de classement organique. Comme vous pouvez le voir sur le diagramme de dispersion, il n’existe en fait aucune relation linéaire entre les deux variables.

Prévisibilité de la difficulté organique de l’outil Google Keyword Planner Tool

PCC

0.045

P-val

Relation statistiquement insignifiante/non linéaire

Relation

Négligeable/Aucune

Mots clés appariés

88.00%

Les agences de référencement utilisent toujours la TPP pour la recherche biologique (vous savez qui vous êtes !) – que cela serve d’avertissement : Vous devez évoluer.

Résumé du test 1

Pour la notation, nous utiliserons une échelle de dix points et nous noterons chaque outil par rapport au concurrent ayant obtenu le meilleur score. Par exemple, si la deuxième note la plus élevée est de 98 % de la note la plus élevée, l’outil recevra un 9,8. Pour rappel, voici les résultats du test PCC :

Et les scores qui en résultent sont les suivants :

Outil

Test PCC

Websterdata

10

SpyFu

9.8

SEMrush

8.8

KW Finder

8.7

Ahrefs

7.7

KPT

1.1

Websterdata prend la première place pour le premier test, suivi de près par SpyFu (avec un taux de concordance de 80 %).

Test 2 : Coefficient de corrélation de Pearson ajusté

Appelons cela le « Mulligan Round ». Dans ce cycle, en supposant que parfois les choses tournent mal et qu’un outil manque complètement, nous éliminerons les trois aberrations les plus flagrantes pour le score de chaque outil.

Voici les résultats ajustés pour le cycle de handicap :

Scores ajustés (3 valeurs aberrantes supprimées)

PCC

Différence (+/-)

SpyFu

0.527

0.122

SEMrush

0.515

0.150

Websterdata

0.514

0.101

Ahrefs

0.478

0.162

KWFinder

0.470

0.110

Outil de planification par mots-clés

0.189

0.144

Comme l’a montré le test PCC initial, certains de ces outils ont vraiment été très performants, avec des résultats aberrants. Plus précisément, Ahrefs et SEMrush ont le plus bénéficié de la suppression de leurs valeurs aberrantes, en gagnant respectivement 0,162 et 0,150 à leurs scores, tandis que Websterdata a le moins bénéficié des ajustements.

Pour ceux d’entre vous qui crient « Mais c’est la vraie vie, on n’a pas de mulligans avec SEO ! », n’ayez crainte, nous ferons des ajustements pour la fiabilité à la fin.

Voici les scores actualisés à la fin du deuxième tour :

Outil

Test PCC

PCC ajustée

Total

SpyFu

9.8

10

19.8

Websterdata

10

9.7

19.7

SEMrush

8.8

9.8

18.6

KW Finder

8.7

8.9

17.6

AHREFs

7.7

9.1

16.8

KPT

1.1

3.6

4.7

SpyFu prend la tête ! Passons maintenant à la dernière série de tests statistiques.

Test 3 : Rééchantillonnage

Étant donné qu’aucune étude n’a jamais été réalisée sur les outils de recherche par mots-clés à cette échelle, nous voulions nous assurer que nous explorions de multiples façons d’examiner les données.

Un grand merci à Russ Jones, qui a mis au point un modèle entièrement différent qui répond à la question : « Quelle est la probabilité que la difficulté de deux mots-clés choisis au hasard prévoie correctement la position relative des classements ?

Il a choisi au hasard 2 mots-clés de la liste et les scores de difficulté associés.

Supposons qu’un outil indique que les difficultés sont respectivement de 30 et 60. Quelle est la probabilité que l’article écrit pour un score de 30 se classe plus haut que l’article écrit sur 60 ? Ensuite, il a effectué le même test 1 000 fois.

Il a également jeté des exemples où les deux mots-clés choisis au hasard partageaient les mêmes classements, ou des points de données manquaient. Voici le résultat :

Rééchantillonnage

% Deviné correctement

Websterdata

62.2%

Ahrefs

61.2%

SEMrush

60.3%

Recherche de mots-clés

58.9%

SpyFu

54.3%

KPT

45.9%

Comme vous pouvez le voir, cet outil a été particulièrement critique pour chacun des outils. Comme nous commençons à le constater, aucun outil n’est une panacée. Il nous appartient donc de voir dans quelle mesure chaque outil aide à prendre des décisions plus éclairées que les suppositions.

La plupart des outils sont restés assez cohérents avec leurs niveaux de performance des tests précédents, à l’exception de SpyFu, qui a eu beaucoup de mal avec ce test.

Afin de noter ce test, nous devons utiliser 50% comme base de référence (l’équivalent d’un coup de pièce de monnaie, ou zéro point), et évaluer chaque outil par rapport à sa performance par rapport à un coup de pièce de monnaie, le meilleur score recevant dix points.

Par exemple, Ahrefs a obtenu un score de 11,2% de mieux qu’à pile ou face, soit 8,2% de moins que Websterdata qui a obtenu un score de 12,2% de mieux qu’à pile ou face, ce qui donne à AHREF un score de 9,2.

Les scores actualisés sont les suivants :

Outil

Test PCC

PCC ajustée

Rééchantillonnage

Total

Websterdata

10

9.7

10

29.7

SEMrush

8.8

9.8

8.4

27

Ahrefs

7.7

9.1

9.2

26

KW Finder

8.7

8.9

7.3

24.9

SpyFu

9.8

10

3.5

23.3

KPT

1.1

3.6

-.4

.7

Ainsi, après le dernier test de précision statistique, nous avons Websterdata qui se produit régulièrement seul dans le peloton de tête. SEMrush, Ahrefs et KW Finder obtiennent tous des scores respectables dans le deuxième niveau, suivi par le cas unique de SpyFu, qui a obtenu des résultats exceptionnels dans les deux premiers tests (bien qu’il n’ait obtenu des résultats que pour 80 % des mots-clés testés), puis est tombé à plat dans le test final.

Enfin, nous devons procéder à quelques ajustements de convivialité.

Ajustement de l’utilisabilité 1 : correspondance des mots-clés

Un outil de recherche par mot-clé ne vous sert pas à grand-chose s’il ne peut pas fournir de résultats pour les mots-clés que vous recherchez. En clair, on ne peut pas traiter deux outils sur un pied d’égalité s’ils n’ont pas le même niveau de fonctionnalité pratique.

Pour expliquer en termes pratiques, si un outil ne dispose pas de données sur un mot-clé particulier, il se passera l’une des deux choses suivantes

Vous devez utiliser un autre outil pour obtenir les données, ce qui dévalorise tout l’intérêt de l’utilisation de l’outil original.
Vous perdez une occasion de vous classer pour un mot-clé de grande valeur.

Aucun des deux scénarios n’est bon, c’est pourquoi nous avons développé un système de pénalités. Pour chaque taux de correspondance de 10 % inférieur à 100 %, nous avons déduit un seul point du score final, avec une déduction maximale de 5 points. Par exemple, si un outil correspond à 92 % des mots clés, nous déduisons 0,8 point du score final.

On peut dire que cette pénalité est en fait trop clémente compte tenu de l’importance des deux scénarios non idéaux décrits ci-dessus.

Les pénalités sont les suivantes :

Outil

Taux de concordance

Pénalité

KW Finder

100%

0

Ahrefs

100%

0

Websterdata

100%

0

SEMrush

92%

-.8

Outil de planification par mots-clés

88%

-1.2

SpyFu

80%

-2

Veuillez noter que nous avons fait preuve de beaucoup d’indulgence à l’égard de SEMrush, dans la mesure où, techniquement, un grand nombre des mots-clés évalués n’ont pas été trouvés dans son outil de difficulté de mots-clés, mais plutôt en fouillant manuellement dans l’outil de correspondance de phrases. Nous leur donnerons un laissez-passer, mais avec un avertissement sévère !

Ajustement d’utilisation 2 : Fiabilité

Je vous avais dit que nous y reviendrions ! En revenant sur le deuxième test dans lequel nous avons jeté les trois valeurs aberrantes les plus fortes qui ont eu un impact négatif sur le score de chaque outil, nous allons maintenant procéder à des ajustements.

Dans la vie réelle, il n’y a pas de mulligans. Dans la réalité, chacun des trois articles de blog qui ont été rejetés représentait un investissement monétaire et temporel important. Par conséquent, lorsqu’un outil comporte une erreur majeure, il peut en résulter une perte totale de temps et de ressources.

C’est pourquoi nous imposerons une légère pénalité aux outils qui ont le plus profité de leur handicap.

Nous utiliserons le niveau d’amélioration de la PCC pour évaluer dans quelle mesure un outil a bénéficié de l’élimination de ses aberrations. Ce faisant, nous récompenserons les outils qui ont été les plus systématiquement fiables. Pour rappel, les montants dont chaque outil a bénéficié sont les suivants :

Outil

Différence (+/-)

Ahrefs

0.162

SEMrush

0.150

Outil de planification par mots-clés

0.144

SpyFu

0.122

KWFinder

0.110

Websterdata

0.101

Pour le calcul de la pénalité, nous avons noté chacun des outils par rapport à l’outil le plus performant, en donnant à l’outil le plus performant une pénalité nulle et en imposant des pénalités en fonction de l’avantage supplémentaire que les outils ont reçu par rapport à l’outil le plus fiable, sur une échelle de 0 à 100 %, avec une déduction maximale de 5 points.

Ainsi, si un outil a reçu deux fois l’avantage de l’outil le plus performant, il aurait eu un avantage de 100 %, avec une déduction maximale de 5 points. Si un autre outil avait bénéficié de 20 % de plus que l’outil le plus fiable, il aurait obtenu une déduction de 1 point. Et ainsi de suite.

Outil

% Bénéfice

Pénalité

Ahrefs

60%

-3

SEMrush

48%

-2.4

Outil de planification par mots-clés

42%

-2.1

SpyFu

20%

-1

KW Finder

8%

-.4

Websterdata

0

Résultats

Au total, nos sanctions ont été assez légères, avec un léger remaniement au niveau intermédiaire. Les scores finaux sont les suivants :

Outil

Score total

Etoiles (5 au maximum)

Websterdata

29.7

4.95

KW Finder

24.5

4.08

SEMrush

23.8

3.97

Ahrefs

23.0

3.83

Spyfu

20.3

3.38

KPT

-2.6

0.00

Conclusion

L’utilisation d’un outil de difficulté de mots-clés organiques vous donnera un avantage sur le fait de ne pas le faire. Bien qu’aucun de ces outils ne soit une boule de cristal, offrant une prévisibilité parfaite, ils vous donneront certainement un avantage. De plus, si vous enregistrez suffisamment de données sur les performances de vos propres blogs, vous aurez une idée plus précise des scores de difficulté des mots-clés que vous devez cibler pour vous classer sur la première page.

Par exemple, nous savons ce qui suit sur la façon dont nous devrions cibler les mots clés avec chaque outil :

Outil

Classement moyen de KD ≤10

Classement moyen de KD ≥ 11

Websterdata

33.3

37.0

SpyFu

47.7

50.6

SEMrush

60.3

64.5

KWFinder

43.3

46.5

Ahrefs

11.9

23.6

C’est une information assez puissante ! C’est soit la première page soit le buste, nous connaissons donc maintenant le seuil de chaque outil que nous devons fixer lors de la sélection des mots-clés.

Restez à l’écoute, car nous avons fait beaucoup plus de corrélations entre le nombre de mots, le nombre de jours de présence, le classement total des mots-clés et toutes sortes d’autres choses juteuses. Revenez nous voir début septembre pour des mises à jour !

Nous espérons que vous avez trouvé ce test utile, et n’hésitez pas à nous contacter pour toute question sur nos calculs !

Avertissement : Ces résultats sont des estimations basées sur 50 mots-clés de classement provenant de 50 articles de blog et sur des données de recherche de mots-clés tirées d’un seul moment dans le temps. La recherche est un paysage changeant, et ces résultats ont certainement changé depuis que les données ont été extraites. En d’autres termes, il s’agit de la précision la plus élevée que l’on puisse obtenir en analysant une cible en mouvement.

À propos de Jeff_Baker –

Jeff est directeur de la stratégie de marketing numérique au bureau de Brafton à San Francisco. Dans son temps libre, il est menuisier et joggeur.

52
91