Fermer

janvier 27, 2020

The Dirty Little Featured Snippet Secret: Where Humans Compely on Algorithmic Intervention [Case Study]13 minutes de lecture



J'ai récemment terminé un projet où j'étais chargé d'étudier pourquoi un site (qui reçoit plus d'un million de visites organiques par mois) ne se classe pas pour aucun aucun [

Il s'agit évidemment d'une situation alarmante, car ~ 15% de toutes les pages de résultats, selon le MozCast ont un extrait en vedette en tant que fonction SERP. Le projet m'a été transmis par un ami de l'industrie. J'ai effectué de nombreuses recherches sur les extraits de code par le passé. Je fais rarement des projets ponctuels, mais celui-ci a vraiment attiré mon attention. J'étais déterminé à comprendre quel problème affectait le site.

Dans cet article, je détaille ma méthodologie pour le projet que j'ai livré, ainsi que les points clés à retenir pour mon client et d'autres qui pourraient être confrontés à une situation similaire. Mais avant de plonger profondément dans mon analyse: ce post n'a PAS de fin de conte de fées. Je n'ai pas été en mesure de déboucher un drain qui a entraîné des milliers de nouveaux visiteurs.

J'ai cependant livré des quantités massives de fermetures à mon client, ce qui lui a permis d'avancer et d'investir des ressources dans des zones qui auront une longue durée de vie.

Confirmation des soupçons avec le Big Data

Maintenant, lorsque mon client est venu me voir pour la première fois, il avait ses propres soupçons sur ce qui se passait. Ils ont été informés par d'autres consultants de la marche à suivre.

On leur a dit que le problème d'extraits de code provenait:

1. Un problème lié aux données structurées contradictoires sur le site

OU

2. Un problème lié au HTML désordonné qui empêchait le site d'apparaître dans les résultats d'extraits en vedette

J'ai immédiatement arrêté le premier problème en raison de l'absence d'apparitions d'extraits en vedette. J'ai beaucoup écrit sur ce sujet dans le passé. Les données structurées (dans le contexte de schema.org ) N'influencent PAS les extraits de code en vedette. Vous pouvez en savoir plus à ce sujet dans mon article sur Search Engine Land.

Quant au deuxième point, il est plus proche de la réalité, mais aussi si loin. Oui, la structure HTML aide considérablement lorsque vous essayez de classer les extraits de code en vedette. Mais au point où un site qui se classe pour près d'un million de mots clés mais qui ne se classe pas du tout pour les extraits en vedette? Très improbable. Il y a plus dans cette histoire, mais confirmons d'abord nos soupçons.

Commençons par le haut. Voici à quoi ressemble le trafic organique estimé:

Remarque: Je ne peux pas afficher le trafic réel pour ce site en raison de la confidentialité. Mais l'estimation mensuelle qu'Ahrefs donne de 1,6 million n'est pas loin.

Sur les 1,6 million de visites organiques mensuelles, Ahrefs récupère 873 000 mots clés organiques. Lorsque vous filtrez ces mots clés par fonctionnalités SERP avec un extrait de fonctionnalité et que vous triez par position, vous obtenez les informations suivantes:

J'ai ensuite effectué des recherches similaires avec les deux Moz Pro en utilisant leurs capacités de filtrage des extraits de code ainsi que SEMrush, ce qui me permet de voir le classement historique.

Les 3 outils affichent tous le même résultat: le site ne se classe pour aucun extrait en vedette, malgré ~ 20% des mots-clés organiques de mon client, y compris un extrait en vedette en tant que fonctionnalité SERP (supérieur à

Il était clair que le site ne se classait pour aucun extrait en vedette sur Google. Mais qui prenait cette position loin de mon client?

L'étape suivante consistait à déterminer si d'autres sites se classaient dans la même niche. S'ils l'étaient, alors ce serait un signe clair d'un problème.

Une comparaison «nous» contre «eux»

Encore une fois, nous devons réfléchir à nos outils. Nous avons besoin de nos outils pour déterminer les meilleurs sites en fonction de la similitude des mots clés. Voici un exemple de cela en action au sein de Moz Pro:

Une fois que nous avons notre liste finale de sites similaires, nous devons effectuer la même analyse que celle effectuée dans la section précédente de ce post pour voir s'ils se classent pour les extraits en vedette .

Avec cette analyse, nous pouvons déterminer s'ils ont affiché des extraits de code ou non, ainsi que le% de leurs mots clés organiques avec un extrait de code en tant que fonctionnalité SERP.

L'étape suivante consiste à ajouter tout cela données à une feuille Google et voyez comment tout correspond au site de mon client. Voici à quoi ressemblent ces données pour mon client:

Je dois maintenant approfondir les sites de ma table. Sont-ils vraiment pertinents, ou mes outils ne détectent-ils qu'un sous-ensemble de requêtes similaires?

J'ai trouvé qu'à partir de la ligne 8 vers le bas de mon tableau, ces sites n'étaient pas si similaires. Je les ai exclus de mon jeu de données final pour garder les choses aussi pertinentes que possible.

Sur la base de ces données, j'ai pu voir 5 autres sites similaires à mes clients. Sur ces cinq sites, un seul a obtenu des résultats où ils se classaient dans un extrait en vedette.

80% des sites similaires au site de mon client avaient exactement le même problème. Il s'agit d'informations extrêmement importantes à garder à l'esprit à l'avenir.

Bien que la taille de l'échantillon soit considérablement inférieure, l'un de ces sites contient environ 34% des résultats de recherche qu'ils classent lorsqu'ils ne peuvent pas être présentés. Comparativement, cela est assez problématique pour ce site (compte tenu du calcul de 20% de la situation de mon client).

Cette analyse a été utile pour déterminer si le problème était spécifique à mon client ou à l'ensemble du créneau. Mais avons-nous des directives de Google pour étayer cela?

Google a présenté la documentation de prise en charge des extraits de code

Dans la Google Featured Snippet Documentation ils fournissent des détails sur les politiques entourant la fonctionnalité SERP. Il s'agit d'informations publiques. Mais je pense qu'un pourcentage très élevé de SEOs ne sont pas conscients (sur la base de plusieurs discussions que j'ai eues) de l'impact de certains de ces détails.

Par exemple, les directives indiquent que:

"En raison de ce traitement de premier plan, les extraits de texte, les images et les pages dont ils proviennent ne doivent pas enfreindre ces règles. "

Ils mentionnent ensuite 5 catégories:

  1. Sexuellement explicite
  2. Détestable
  3. Violente
  4. Dangereuse et nuisible
  5. Manque de consensus sur les sujets d'intérêt public

Le numéro cinq en particulier est intéressant. Cette section n'est pas aussi claire que les quatre autres et nécessite une certaine interprétation. Google explique cette catégorie de la manière suivante:

"Les extraits en vedette sur le contenu d'intérêt public – y compris les questions civiques, médicales, scientifiques et historiques – ne devraient pas manquer d'un consensus bien établi ou d'experts."

Et le plus encore partie intéressante dans tout cela: ces politiques ne s'appliquent pas aux listes de recherche sur le Web et ne provoquent pas leur suppression.

Cela peut être éteint pour les extraits en vedette si vous tombez dans l'une de ces catégories, mais vous pouvez toujours être en bonne position dans les résultats des 10 liens bleus. Une situation un peu étrange.

D'après mes connaissances du client, je ne pouvais pas dire avec certitude si l'une des cinq catégories était à blâmer pour son problème. Il semblait que c'était une intervention algorithmique (et j'avais des doutes quant à la catégorie qui était la cause potentielle).

Mais il n'y avait aucun moyen de le confirmer. Le site ne comportait aucune action manuelle dans Google Search Console. C'est littéralement la seule façon dont Google pourrait communiquer quelque chose comme ça aux propriétaires de sites.

J'avais besoin de quelqu'un à l'intérieur de Google pour m'aider.

La pièce manquante: les commentaires officiels de Google sur le site

L'une des ressources les plus sous-utilisées dans une boîte à outils de référencement (basée sur mon opinion), sont les Hangouts Google Webmaster organisés par John Mueller.

Vous pouvez voir l'horaire de ces Hangouts sur YouTube ici et inscrivez-vous en direct en posant une question à John en personne si vous le souhaitez. Vous pouvez toujours essayer John sur Twitter aussi, mais il n'y a rien de tel qu'une vidéo.

Vous avez la possibilité d'expliquer votre question en détail. John peut facilement demander des éclaircissements, et vous pouvez faire un va-et-vient rapide qui va au fond de votre problème.

C'est ce que j'ai fait pour comprendre cette situation. J'ai parlé avec John en direct sur le Hangout pendant environ 5 minutes; vous pouvez regarder mon segment ici si cela vous intéresse. Le résultat a été que John m'a donné son adresse e-mail et j'ai pu envoyer via le site pour qu'il vérifie avec l'équipe de classement de Google.

J'ai suivi John sur Twitter pour voir s'il a pu obtenir des informations de l'équipe sur la situation de mes clients. Vous pouvez suivre le lien ci-dessus pour voir l'intégralité de la communication, mais John a indiqué qu'il n'y avait pas de pénalité manuelle mise en place pour le site de mon client. Il a dit que c'était purement algorithmique . Cela signifiait que l'algorithme décidait que le site n'était pas autorisé à se classer dans les extraits sélectionnés.

Et un élément important de la réponse de John:

Si un site ne se classe pas pour les extraits sélectionnés alors qu'ils sont déjà classés très bien dans les résultats organiques sur Google (par exemple, dans les positions 1 à 5), il n'y a aucun moyen de le forcer à se classer.

Pour moi, c'est un sale petit secret en quelque sorte (d'où le titre de cet article). Les algorithmes de Google peuvent décider qu'un site ne peut pas s'afficher dans un extrait en vedette (mais pourrait se classer n ° 2 de manière cohérente), et que le propriétaire d'un site ne peut rien faire.

… et le résultat final?

Le résultat de ceci, dans le créneau spécifique dans lequel se trouve mon client, est que de nombreux sites plus petits et apparemment moins pertinents (dans leur ensemble) sont ceux qui se classent dans les extraits de site. Ces sites fournissent-ils la meilleure réponse? Eh bien, l'algorithme de classement organique à 10 liens bleus ne le pense pas, mais l'algorithme d'extrait présenté le fait.

Cela signifie que le site contient beaucoup de requêtes qui ont un CTR faible, ce qui entraîne considérablement moins de trafic entrant. sur le site. Bien sûr, les extraits en vedette ne génèrent pas toujours beaucoup de trafic. Mais ils obtiennent certainement beaucoup plus d'attention que les listes organiques ci-dessous:

Sur la base de l'étude Nielsen Norman Group lorsque des fonctionnalités SERP (comme des extraits en vedette) étaient présentes sur un SERP, ils ont constaté qu'ils avaient reçu regarde dans 74% des cas (avec un intervalle de confiance à 95% de 66 à 81%). Ces données indiquent clairement que les extraits de site sont importants pour que les sites se classent dans la mesure du possible, résultant en une visibilité beaucoup plus grande.

Parce que l'algorithme de Google prend cette décision, c'est probablement une chose de responsabilité; Google (les personnes impliquées dans le moteur de recherche) ne veulent pas être celles qui doivent passer cet appel. C’est délicat. Je comprends pourquoi Google doit mettre ces systèmes en place pour leur moteur de recherche (l'échelle est importante), mais la communication pourrait être considérablement améliorée pour ces types d'interventions algorithmiques. Même s'il ne s'agit pas d'une intervention manuelle, il devrait y avoir une sorte de notification dans Google Search Console. Sinon, les propriétaires de sites n'investiront que dans la recherche et le développement pour essayer de classer leur site dans les extraits de site (ce qui est naturel). que la curiosité des propriétaires de sites disparaîtra toujours. Il y aura toujours le "et si?"

Au fond, je ne suis pas sûr que Google fasse jamais cet ajout à Google Search Console. Cela signifierait trop de communication à ce sujet et pourrait entraîner des différends inutiles avec les propriétaires de sites qui se sentent lésés. Mais quelque chose doit changer. Il doit y avoir moins d'ambiguïté pour le propriétaire de site moyen qui ne sait pas qu'il peut accéder directement à des personnes impressionnantes de l'équipe de recherche Google. Mais pour le moment, il restera le sale petit secret de Google en vedette.




Source link