Fermer

février 24, 2020

Spot Zero est parti – Voici ce que nous savons après 30 jours


Comme vous le savez probablement déjà, les mises à jour récentes ont changé le monde de l'optimisation de la recherche. Le 22 janvier, Google, dans sa sagesse infinie, a décidé que l'URL qui a valu l'extrait de vedette dans un SERP n'aurait pas la place supplémentaire dans ce SERP. Cela signifie également qu'à partir de maintenant, l'extrait en vedette sera la véritable position spot-one.

Plutôt que de refaire ce qui a déjà été si éloquemment discuté, je vous dirigerai vers Dr. Post de Pete si vous avez besoin d'un rappel sur ce que cela signifie pour vous et pour Moz.

30 jours suffisent pour appeler les tendances, pas toutes les réponses

Je suis en référencement depuis assez longtemps pour savoir que quand il y a un bouleversement massif (comme la suppression du spot zéro), les patrons et les clients veulent savoir ce que cela signifie pour l'entreprise. Dans des situations comme celle-ci, les réponses des SEO sont limitées à 1) ce qu'ils peuvent voir dans leurs propres comptes et 2) ce que les autres rapportent en ligne.

Une seule période de 30 jours ne suffit pas pour observer des tendances concrètes et fournir des suggestions définitives sur ce que tout SEO devrait faire. Mais il reste suffisamment de temps pour donner une voix aux tendances d'évasion qui méritent d'être observées au fil du temps. La seule façon pour les référenceurs de se démarquer est de partager les tendances qu'ils voient entre eux. Sans les données et les théories de chacun, il ne nous restera plus qu'à voir ce qui se trouve juste devant nous – ce qui n'est souvent pas l'image complète.

Donc, dans un effort pour approfondir la discussion sur le monde post-zéro, nous 97e étage nous sommes mis à découvrir les tendances sous notre nez, en examinant près de 3 000 avant et après exemples d'extraits présentés depuis le 22 janvier.

Les données et la méthodologie

Je sais que nous voulons tous simplement voir les informations (que vous êtes invité à consulter de toute façon), mais cela vaut la peine de passer une minute à expliquer la méthodologie lâche qui a produit les résultats.

Les deux principaux outils utilisés ici étaient Google Search Console et STAT . Bien qu'il existe plus de données sur le trafic dans Google Analytics que sur GSC, nous sommes limités à voir le trafic généré par des mots clés réels, limité par le trafic sur toute la page. Pour cette raison, nous avons utilisé GSC pour obtenir les taux de clics de mots clés spécifiques sur des pages spécifiques. Cela se marie bien avec les données de STAT pour nous donner un repère quotidien du classement Google et du classement de base Google pour les mots clés à portée de main.

Bien qu'il y ait beaucoup de mots clés à consulter, nous avons constaté que les mots clés de petit volume – moins de 5 000 MSV mondial (à quelques exceptions mineures près) – a produit des résultats qui ne disposaient pas de suffisamment de données pour prétendre à une signification statistique. Ainsi, tous les mots clés analysés comportaient plus de 5 000 recherches mensuelles globales, comme indiqué par STAT.

Il est également important de noter que tous les scores de difficulté proviennent de Moz.

Évidemment, nous n'étions intéressés que par les SERP qui avaient un extrait de contenu servant à garantir que nous avions une image avant-après précise, ce qui réduit encore le nombre de mots clés. En fin de compte, le dernier lot de mots clés analysés était 2 773.

Nous avons appliqué des formules de base pour déterminer quels mots clés racontaient des histoires claires. Cela nous a amenés à analyser intimement environ 100 mots clés à la main, parfois plusieurs heures en regardant un seul mot clé, ou plutôt un seul SERP sur une période de 30 jours. Les résultats rapportés ci-dessous proviennent de ces 100 analyses qualitatives de mots-clés.

Oh, et cela peut aller de soi, mais je fais de mon mieux pour protéger les données des clients de 97th Floor, donc je ne donnerai rien d'incriminant quant à à quels sites Web mes captures d'écran sont jointes. 97th Floor a accès à des centaines de comptes GSC clients et nous suivons les mots clés dans STAT pour presque chacun d'entre eux.

En clair, je me consacre au partage des meilleures données et informations, mais pas au détriment de la confidentialité de nos clients.

Les résultats … pas ce à quoi je m'attendais

Oui, je faisais partie de la liste des référenceurs qui a déclaré que pour la première fois, les référenceurs pourraient avoir besoin d'envisager de tirer pour le spot 2 au lieu du spot 1. vu le tweet de @dannysullivan sur place zéro ne joue plus un rôle dans les SERP?

Le plus gros point à retenir de cet article est que, pour la première fois depuis le lancement des extraits en vedette il y a 6 ans, les SEO peuvent vouloir pour envisager de désoptimiser les extraits en vedette. https://t.co/5eqSZiQhvz

– PJ Howland (@askPJHowland) 23 janvier 2020

Je ne pense toujours pas me tromper (comme le montrent les données ci-dessous), mais après cette analyse des données, j'ai découvert que c'est une histoire plus nuancée que les résultats rapides et sales que nous attendons tous d'une étude comme celle-ci.

La meilleure façon de dévoiler le mystère de la rétrogradation spot-zero est d'appeler les résultats individuels de cette étude comme des leçons individuelles apprises. Donc, sans ordre particulier, voici les résultats.

Les gagnants d'extraits de longue date voient le CTR et le trafic chuter indéfiniment, le nombre de clics diminue.

Le mot clé ci-dessous représente une page que nous avons créée il y a des années pour un client qui a conservé l'extrait de code presque exclusivement depuis son lancement. Le mot-clé a un volume de recherche mondial de 74 000 et une difficulté de 58, sans parler d'un CPC moyen de 38,25 $. Il suffit de dire que c'est un mot-clé et une position assez lucratifs pour notre client.

Nous avons analysé le CTR de ce mot clé unique dirigeant vers cette page unique sur Google Search Console pendant deux semaines avant l'annonce du 22 janvier et deux semaines après celle-ci. J'adorerais remonter plus de deux semaines, mais si nous le faisions, nous nous serions glissés dans les chiffres du trafic du Nouvel An, ce qui aurait embrouillé les données.

vous pouvez le constater, les impressions et la position moyenne sont restées quasiment identiques pour ces deux périodes. Mais le CTR et les clics ultérieurs ont diminué de façon spectaculaire au cours des deux semaines qui ont immédiatement suivi la fin du spot zéro le 22 janvier.

Si cette tendance se poursuit pour le reste de 2020, ce changement d'extrait de mot clé unique entraînera une baisse de 9 880 clics en 2020. Encore une fois, ce n'est qu'un seul mot clé, pas tous les mots clés que cette page représente. Lorsque vous incorporez le CPC moyen dans cette équation qui s'élève à 377 910 $ en clics perdus (s'il s'agissait de clics payés).

Bien sûr, il s'agit d'une situation exagérée en raison du volume du mot clé et du CPC gonflé, mais le principe a été découvert et dans cette recherche reste le même: les marques qui ont détenu la position d'extrait de code pendant de longues périodes voient des taux de clics et de trafic plus faibles en conséquence directe de la modification du spot zéro.

Lorsqu'un double extrait est présent, CTR sur les premiers réservoirs d'extrait

Presque aussi insaisissable que le yéti ou Bigfoot, le double extrait trouvé dans son habitat naturel est rare.

Bien sûr, cela pourrait être prévu; lorsqu'il y a deux résultats qui sont tous deux des extraits en vedette, le premier obtient moins de clics. Mais les chiffres bruts nous ont laissé nos mâchoires sur le sol. Dans chaque cas où nous avons rencontré ce phénomène, nous avons découvert que le premier (l'extrait en vedette n ° 1) perd plus de 50% de son CTR lorsque le deuxième extrait est introduit.

Ce mot-clé MSV global de 40 500 était le seul contrôleur d'extrait présenté lundi, et mardi le SERP est resté intact (à part le deuxième extrait introduit).

Ce petit changement a mis à genoux le CTR de notre client, qui est passé de 9,2% à 2,9%.

Lorsque vous regardez les performances de ce mot clé le reste de la semaine, la tendance continue de suivre.

Le lundi et le mercredi sont des jours d'extrait unique, tandis que mardi, jeudi et vendredi ont apporté le double extrait.

Facile à faire, facile à faire (pas un vrai Spot 1)

Il y a eu beaucoup de spéculations à ce sujet fait, mais maintenant je peux confirmer que le classement pour un extrait en vedette ne vient pas de la même manière que le classement pour un vrai spot 1. Dans le cas ci-dessous, vous pouvez voir un de nos clients danser autour des spots 5 et 6 avant de prendre un extrait . De même, lorsqu'ils perdent l'extrait, ils retombent à leur position d'origine.

De telles situations étaient trop courantes. La plupart du temps, des URL perdent l'extrait de code au profit d'autres URL. D'autres fois, Google supprime l'extrait de code uniquement pour le ramener le lendemain.

Si vous vous demandez quel était le rapport CTR sur GSC pour la capture d'écran ci-dessus, je l'ai jointe ci-dessous. Mais ne partez pas trop vite; les résultats ne sont pas terriblement perspicaces. Ce qui est perspicace en soi.

Ce mot-clé a un volume global de 22 200 et une difficulté de mot-clé de 44. Le SERP obtient un trafic important, donc vous pourriez penser que les résultats seraient plus évidents.

S'il y a quelque chose à retirer de telles situations, le voici : Gagner l'extrait ne signifie pas intrinsèquement que les CTR s'amélioreront au-delà de ce que vous obtiendriez dans une position inférieure à la ligne de flottaison.

Voir les bosses du CTR sous le pli

Une grande partie des données adressées à ce stade parle de sites qui ont présenté des extraits ou les ont perdus, mais qu'en est-il des sites qui n'ont pas eu d'extrait avant ou après ce remaniement ?

Si cela décrit votre situation, vous pouvez vous lancer une petite célébration (en mettant l'accent sur la petite), car les données suggèrent que vos URL pourraient obtenir une légère augmentation du CTR.

L'exemple ci-dessous montre un 74 000 global Mot clé MSV avec une difficulté qui a oscillé entre les points 5 et 7 pour la semaine précédant et la semaine suivant le 22 janvier.

La capture d'écran de STAT montre que ce mot-clé est clairement resté en dessous du pli et assez cohérent. Au contraire, il s'est classé pire après le 22 janvier.

Le taux de clics s'est amélioré la semaine suivant le 22 janvier de 3% à 3,7%. Peut-être pas assez pour justifier une célébration pour ceux qui sont en dessous du pli, car cette petite augmentation était typique dans de nombreux postes au milieu de la première page.

Les cases «Les gens demandent aussi» sont là pour voler votre extrait de code CTR pas sur votre URL.

Sur pratiquement tous les SERP (en fait, nous n'avons pas trouvé d'exemple où ce n'était pas vrai), la présence d'une boîte PAA supprime le CTR de l'extrait de code et des résultats standard.

Les effets négatifs de la boîte PAA apparaissant dans votre SERP sont atténués lorsque la boîte PAA ne sert pas immédiatement en dessous de l'extrait présenté. C'est rare, mais il y a des situations où la case «Les gens aussi demandent» sert plus bas dans le SERP, comme cet exemple ci-dessous.

Si votre point de vente ici est de créer plus de pages qui répondent aux questions apparaissant dans les boîtes PAA pertinentes, prenez un moment pour digérer le fait que nous avons rarement vu des cas de clics lorsque nos clients se sont présentés dans des boîtes PAA.

Dans ce cas, nous avons un client qui se classe pour deux des quatre premières réponses dans un SERP à volume élevé (22 000 recherches mensuelles mondiales), mais n'a pas vu un seul clic – du moins aucun pour parler de GSC:

Alors que sa page de contrepartie, qui a toujours servi au point 6, obtient au moins une sorte de taux de clics:

S'il y a une leçon à tirer ici, c'est ce classement en dessous du pli de la page un est mieux que d'entrer dans la boîte PAA (en termes de clics de toute façon).

Alors, quelle est la conclusion?

Comme vous pouvez le constater, les résultats sont un peu partout. Cependant, la principale conclusion à laquelle je reviens est la suivante: La cliquabilité compte plus qu'elle ne l'a jamais été.

Pendant que je calculais ces données, je me suis constamment rappelé une phrase que notre EVP of Operations, Paxton Gray, est célèbre pour avoir dit:

"Connaissez vos SERPs."

Cela est plus vrai aujourd'hui que il l'a fait en 2014 lorsque je l'ai entendu pour la première fois le dire.

Alors que je réfléchissais à ce pool de données frustrantes, je me suis souvenu des remarques de Jeff Bezo dans sa Lettre d'actionnaire d'Amazon 2017 :

«Une chose que j'aime chez les clients, c'est qu'ils sont mécontentement divin. Leurs attentes ne sont jamais statiques – elles augmentent. C’est la nature humaine. Nous ne sommes pas remontés de nos jours de chasseurs-cueilleurs en étant satisfaits. Les gens ont un appétit vorace pour une meilleure façon, et le «wow» d'hier devient rapidement «ordinaire» d'aujourd'hui. »

Et puis ça m'a frappé: Google n'a pas été conçu pour les SEO; il est conçu pour les utilisateurs. Le travail de Google est notre travail, donner aux utilisateurs le meilleur contenu. Au 97ème étage, notre credo est: nous faisons d'Internet un meilleur endroit. Cela semble un peu ringard, mais nous le maintenons. Chaque page que nous créons, chaque annonce que nous diffusons, chaque élément interactif que nous créons et chaque PDF que nous publions pour nos clients doivent faire d'Internet un meilleur endroit. Et bien qu'il soit difficile pour nous de regarder les mises à jour de Google prendre des clics de nos clients, nous reconnaissons que c'est pour l'utilisateur. Ce n'est qu'une étape de plus dans l'élégante danse que nous effectuons avec Google.

Je me souviens d'un jour où les points 1, 2 et 3 obtenaient constamment des CTR à deux chiffres. Et aujourd'hui, nous célébrons si nous pouvons obtenir une place de plus de 10% CTR. Heck, je vais même prendre un 8% pour un extrait en vedette après avoir exécuté cette recherche!

Le référencement aujourd'hui est plus que simplement mettre votre mot-clé dans un titre et pousser des liens vers une page. Les fonctionnalités SERP peuvent avoir un effet plus direct sur vos clics que vos propres optimisations de page. Mais cela ne signifie pas que le SEO est hors de notre contrôle – pas de loin. Les SEO vont réussir, nous le faisons toujours, mais nous devons partager nos apprentissages les uns avec les autres. La transparence fait qu'Internet est un meilleur endroit après tout.




Source link