Fermer

mars 3, 2021

10 étapes pour combiner les données de classement STAT avec les mesures de performance du site


Publié par AndrewMiller

Trop souvent, nous supposons que les meilleures pratiques de référencement fonctionneront dans n'importe quel secteur par rapport à n'importe quel ensemble concurrentiel. Mais la plupart des meilleures pratiques n'ont pas été testées et peuvent ne pas être «meilleures» dans toutes les situations.

Nous savons tous que les tactiques qui ont fonctionné en 2020 ne déplaceront pas nécessairement l'aiguille en 2021 alors que Core Web Vitals (CWV) et d'autres signaux se déplacent vers l'avant. Nous devons faire mieux pour nos entreprises et nos clients.

Je suis un data nerd dans l'âme avec beaucoup de cicatrices de bataille depuis 15 ans dans le référencement. L'idée d'analyser des milliers de SERP locaux semblait trop amusante à laisser passer. J'ai trouvé des corrélations surprenantes et, tout aussi important, j'ai construit une méthodologie et un ensemble de données qui peuvent être mis à jour tous les trimestres pour montrer les changements au fil du temps.

J'ai analysé plus de 50 000 SERPs dans le secteur de la banque de détail afin de comprendre les changements massifs dans les classements et les comportements de recherche pendant la période de verrouillage. Nous avons beaucoup de données historiques pour les sites Web des banques. Il serait donc plus facile de comparer les données COVID pré / post que de partir de zéro.

Je vais vous expliquer comment je l'ai fait ci-dessous. Mais d'abord, je veux partager POURQUOI je pense que partager ce type de recherche est si important pour la communauté SEO.

Pourquoi valider les meilleures pratiques SEO avec des données?

C'est le moment idéal pour être SEO. Nous avons des outils incroyables et pouvons collecter plus de données que jamais. Nous avons des communautés prospères et d'excellents matériels de formation de base .

Pourtant, nous voyons souvent notre métier distillé en «meilleures pratiques» trop simplifiées qui sont supposées être universellement vraies. Mais s'il y a une vérité universelle dans le référencement, c'est qu'il n'y a pas de vérités universelles. Une meilleure pratique peut être mal interprétée ou obsolète, ce qui entraîne des opportunités manquées ou un préjudice pur et simple à une entreprise.

En prenant comme exemple l'importance croissante de CWV, les référenceurs ont la possibilité (et l'obligation) de séparer les faits de la fiction. Nous devons savoir si, et dans quelle mesure, CWV aura un impact sur les classements au fil du temps afin que nous puissions prioriser nos efforts.

Nous pouvons élever notre jeu SEO individuellement et collectivement en testant et en validant les meilleures pratiques avec la recherche. Il faut juste un esprit curieux, les bons outils et une volonté d'accepter les résultats plutôt que de forcer un récit.

Ne pas valider les meilleures pratiques est une responsabilité pour les spécialistes du référencement et montre une réticence à contester les hypothèses. D'après mon expérience, un manque de données peut conduire à ce que les opinions des principaux intervenants aient plus de poids que les recommandations d'un expert en référencement.

Commencez par poser les bonnes questions

Un aperçu réel vient de la combinaison de données provenant de sources multiples pour répondre à des questions critiques et assurez-vous que vos stratégies sont étayées par des données valides. Dans mon analyse des banques locales, j'ai commencé par énumérer les questions auxquelles je voulais connaître les réponses:

  • Quelles sont les caractéristiques partagées par les sites Web de banques locales de premier plan?
  • À qui les banques sont-elles réellement en concurrence dans les SERP? S'agit-il principalement d'autres banques?
  • Comment les SERPS concurrentiels évoluent-ils en fonction du moment / du lieu / de la manière dont les utilisateurs effectuent des recherches?
  • Comment les petites entreprises locales peuvent-elles avoir un avantage sur les concurrents plus importants de l'extérieur de leur région?
  • Comment la composition SERP affecte-t-elle la capacité d'une banque à bien se classer pour les mots-clés ciblés?
  • Quelle est l'importance des Core Web Vitals (CWV) pour les classements? Comment cela change-t-il au fil du temps?

Vous pouvez effectuer cette même analyse en remplaçant «banques» par d'autres catégories d'entreprises locales. La liste des questions potentielles est infinie. Vous pouvez donc les ajuster en fonction de vos besoins.

Voici un rappel important: soyez prêt à accepter les réponses même si elles ne sont pas concluantes ou contradictoires avec vos hypothèses. Les référenceurs basés sur les données doivent éviter le biais de confirmation si nous voulons rester objectifs.

Voici comment j'ai analysé 50 000 résultats de recherche en quelques heures

J'ai combiné trois de mes outils préférés pour analyser les SERPs à grande échelle et rassembler les données nécessaires pour répondre à mes questions:

  • STAT pour générer des rapports de classement pour certains mots clés
  • Screaming Frog pour explorer des sites Web et recueillir des données techniques de référencement
  • Power BI pour analyser les grands ensembles de données et créer des visualisations simples

Étape 1: Déterminez vos besoins en données

J'ai utilisé les données du US Census Bureau pour identifier toutes les villes de plus de 100 000 habitants car je voulait une représentation des SERP des banques locales à travers le pays. Ma liste a fini par inclure 314 villes distinctes, mais vous pouvez personnaliser votre liste en fonction de vos besoins.

Je voulais également collecter des données pour les recherches sur ordinateur et sur mobile afin de comparer les différences SERP entre les types d'appareils.

Étape 2: Identifiez vos mots clés

J'ai choisi "banques à proximité" et "banques à {city, st}" en fonction de leur forte intention locale et de leurs volumes de recherche élevés, par rapport à des mots clés plus spécifiques pour les services bancaires.

Étape 3: Générez un fichier d'importation STAT au format .csv

Une fois que vous avez vos mots clés et votre liste de marchés, il est temps de préparer le téléchargement groupé pour STAT . Utilisez le modèle fourni dans le lien pour créer un fichier .csv avec les champs suivants:

  • Projet: nom du nouveau projet STAT ou d'un projet existant.
  • Dossier: nom du nouveau dossier, ou dossier existant. (Il s'agit d'une colonne facultative que vous pouvez laisser vide.)
  • Site: Le nom de domaine du site que vous souhaitez suivre. Notez que pour nos besoins, vous pouvez saisir ici toute URL que vous souhaitez suivre. Le rapport des 20 premiers comprendra toutes les URL de classement des mots clés cibles, même si elles ne sont pas répertoriées dans votre colonne "Site".
  • Mot clé: la requête de recherche que vous ajoutez.
  • Balises: saisissez autant de balises de mots-clés que vous le souhaitez, séparées par des virgules. J'ai utilisé «ville» et «près de moi» comme balises pour distinguer les types de requêtes. (Il s'agit d'une colonne facultative que vous pouvez laisser vide.)
  • Marché: spécifiez le marché (pays et langue) dans lequel vous souhaitez suivre le mot-clé. J'ai utilisé «US-en» pour l'anglais américain.
  • Emplacement: Si vous souhaitez suivre le mot-clé dans un emplacement spécifique, indiquez la ville, l'état, la province, le code postal et / ou le code postal. J'ai utilisé la liste des villes et des États au format «ville, rue».
  • Appareil: indiquez si vous souhaitez obtenir des résultats sur un ordinateur de bureau ou un smartphone. J'ai sélectionné les deux.

Chaque marché, emplacement et type d'appareil multipliera le nombre de mots-clés que vous devez suivre. J'ai fini avec 1 256 mots-clés (314 marchés X 2 mots-clés X 2 appareils) dans mon fichier d'importation.

Une fois votre fichier terminé, vous pouvez l'importer dans STAT et commencer le suivi.

Étape 4: Générez un rapport Top 20 dans STAT pour tous les mots-clés

Le rapport intégré de STAT Google SERP Top 20 Comparison capture les 20 premiers résultats organiques de chaque SERP à différents intervalles (quotidien, hebdomadaire, mensuel, etc.) pour examiner les changements heures supplémentaires. Je n'avais pas besoin de données quotidiennes, alors je l'ai simplement laissé fonctionner deux jours consécutifs et j'ai supprimé les données dont je n'avais pas besoin. Je relance le même rapport tous les trimestres pour suivre les changements au fil du temps.

Regardez la vidéo ci-dessous pour savoir comment configurer ce rapport!

Mes 1 256 mots clés ont généré plus de 25 000 lignes de données par jour. Chaque ligne est une liste organique différente et comprend le mot-clé, le volume de recherche mensuel, le classement (inclut le pack local), le classement de base (n'inclut pas le pack local), le protocole https / http de l'URL de classement, l'URL de classement et votre balises.

Voici un exemple de sortie brute au format CSV:

Il est facile de voir à quel point ces données sont utiles en elles-mêmes, mais elles deviennent encore plus puissantes lorsque nous les nettoyons et commençons à explorer les URL de classement. [19659031] Étape 5: Nettoyez et normalisez vos données URL STAT

À ce stade, vous avez peut-être investi 1 à 2 heures dans la collecte des données initiales. Cette étape prend un peu plus de temps, mais le nettoyage des données vous permet d'exécuter une analyse plus avancée et de découvrir des informations plus utiles dans Screaming Frog.

Voici les modifications que j'ai apportées aux données du classement STAT pour vous préparer aux prochaines étapes de Screaming Frog et Power BI. Vous vous retrouverez avec plusieurs colonnes d'URL. Chacun a un but plus tard.

  1. Dupliquez la colonne URL de classement dans une nouvelle colonne appelée URL normalisée.
  2. Supprimez les paramètres d'URL des champs d'URL normalisés à l'aide de l'outil Texte en colonnes d'Excel et en les séparant par "?". J'ai supprimé les nouvelles colonnes contenant les paramètres d'URL car elles ne m'ont pas été utiles dans mon analyse.
  3. Dupliquez la nouvelle colonne d'URL normalisée propre dans une nouvelle colonne appelée TLD. Utilisez l'outil de texte en colonnes dans la colonne TLD et séparez-les par "/" pour tout supprimer sauf le nom de domaine et les sous-domaines. Supprimez les nouvelles colonnes. J'ai choisi de conserver les sous-domaines dans ma colonne TLD, mais vous pouvez les supprimer si cela aide votre analyse.
  4. Enfin, créez une autre colonne appelée URL complète qui deviendra éventuellement la liste des URL que vous explorerez dans Screaming Frog. Pour générer l’URL complète, utilisez simplement la fonction de concaténation d’Excel pour combiner les colonnes Protocole et URL normalisée. Votre formule ressemblera à ceci: = concaténer (A1, «: //», C1) pour inclure le «: //» dans une chaîne d'URL valide.

Les plus de 25 000 lignes de mon ensemble de données sont bien dans Excel limitations, je suis donc capable de manipuler les données facilement en un seul endroit. Vous devrez peut-être utiliser une base de données (j'aime BigQuery) à mesure que vos ensembles de données se développent.

Étape 6: catégorisez vos résultats SERP par type de site Web

En parcourant les résultats SERP, il est facile de voir que les banques ne sont pas le seul type de site Web à classer les mots clés avec une intention de recherche locale. Comme l'une de mes questions initiales était la composition du SERP, j'ai dû identifier tous les différents types de sites Web et étiqueter chacun d'entre eux pour une analyse plus approfondie.

Cette étape est de loin la plus longue et la plus perspicace. J'ai passé 3 heures à catégoriser le lot initial de plus de 25 000 URL dans l'une des catégories suivantes:

  • Institution (sites Web de banques et de coopératives de crédit)
  • Annuaire (agrégateurs, annuaires d'entreprises locaux, etc.)
  • Avis (locaux et sites nationaux comme Yelp.com)
  • Education (contenu sur les banques sur les domaines .edu)
  • Gouvernement (contenu sur les banques sur les domaines .gov et les sites municipaux)
  • Emplois (sites de carrières et agrégateurs d'emplois) [19659016] Actualités (sites de nouvelles locales et nationales avec contenu bancaire)
  • Banques alimentaires (oui, beaucoup de banques alimentaires classent les mots-clés «banques à proximité»)
  • Immobilier (annonces immobilières commerciales et résidentielles)
  • Recherche Moteurs (contenu classé appartenant à un moteur de recherche)
  • Médias sociaux (contenu classé sur les sites de médias sociaux)
  • Autre (résultats complètement aléatoires sans rapport avec aucun des éléments ci-dessus)

Vos SERPs locaux contiendront probablement de nombreux ces types de sites Web et d'autres catégories non liées suc h en tant que banques alimentaires. Accélérez le processus en triant et en filtrant vos colonnes TLD et URL normalisées pour classer plusieurs lignes simultanément. Par exemple, tous les classements de yelp.com peuvent être classés dans la catégorie "Avis" avec un simple copier / coller.

À ce stade, l'ensemble de données de votre classement est complet et vous êtes prêt à commencer à explorer les sites les mieux classés de votre industrie pour voir ce qu'ils ont en commun.

Étape 7: Explorez vos sites Web cibles avec Screaming Frog

Mes données STAT initiales ont identifié plus de 6 600 pages uniques provenant de sites Web de banques locales classées parmi les 20 meilleurs résultats de recherche organique. C'est beaucoup trop de pages à évaluer manuellement. Entrez Screaming Frog, un robot d'exploration qui imite le robot d'exploration Web de Google et extrait des tonnes de données de référencement à partir de sites Web.

J'ai configuré Screaming Frog pour qu'il explore chacune des 6 600 pages de classement pour une analyse plus large des caractéristiques partagées par les sites Web de banques de premier plan. Ne vous contentez pas de laisser SF lâcher. Assurez-vous de le configurer correctement pour gagner du temps et éviter d'explorer les pages inutiles.

Ces paramètres garantissent que nous obtiendrons toutes les informations dont nous avons besoin pour répondre à nos questions en une seule exploration:

Mode liste: Coller dans une liste URL complète dédupliquée à partir de vos données STAT. Dans mon cas, il s'agissait de plus de 6 600 URL.

Mode de stockage de la base de données: Cela peut être un peu plus lent que le stockage de la mémoire (RAM), mais l'enregistrement de vos résultats d'exploration sur votre disque dur garantit que vous ne perdrez pas vos résultats si vous faites une erreur (comme je l’ai fait à plusieurs reprises) et fermez votre rapport avant de terminer l’analyse des données.

Limiter la profondeur d’exploration: Réglez ce paramètre sur 0 (zéro) pour que l’araignée n’explore que les URL de votre liste sans suivre les liens internes vers d'autres pages de ces domaines.

API: Je recommande vivement d'utiliser Intégration Pagespeed Insights pour extraire les métriques de vitesse Lighthouse directement dans vos données d'exploration. Si vous avez un compte Moz avec accès à l'API, vous pouvez également extraire les données de lien et de domaine de l'API Moz avec l'intégration intégrée .

Une fois que vous avez configuré l'araignée, laissez-la déchirer! Cela peut prendre de quelques minutes à plusieurs heures en fonction du nombre d'URL que vous explorez et des contraintes de vitesse et de mémoire de votre ordinateur. Soyez juste patient! Vous pouvez essayer d'exécuter des analyses plus importantes pendant la nuit ou sur un ordinateur supplémentaire pour éviter de ralentir votre ordinateur principal.

Étape 8: Exportez vos données d'analyse Screaming Frog vers Excel

Il est extrêmement facile de transférer vos données d'analyse dans Excel.

Étape 9: Joindre vos ensembles de données dans Power BI

À ce stade, vous devez avoir deux sources de données dans Excel: une pour vos données de classement STAT et une autre pour vos données d'analyse Screaming Frog. Notre objectif est de combiner les deux sources de données pour voir comment le classement de la recherche organique peut être influencé par les éléments de référencement sur la page et les performances du site. Pour ce faire, nous devons d'abord fusionner les données.

Si vous avez accès à un PC Windows, la version gratuite de Power BI est suffisamment puissante pour vous permettre de démarrer. Commencez par charger vos deux sources de données dans un nouveau projet à l'aide de l'assistant Obtenir des données.

Une fois vos ensembles de données chargés, il est temps de faire de la magie en créant des relations dans vos données pour débloquer les corrélations entre les classements et les caractéristiques du site. Pour combiner vos données dans Power BI, créez une relation plusieurs-à-plusieurs entre vos champs URL complète STAT et URL d'origine Screaming Frog.

Si vous débutez dans les outils de BI et la visualisation de données, ne vous inquiétez pas! Il existe de nombreux didacticiels et vidéos utiles à une recherche rapide. À ce stade, il est vraiment difficile de casser quoi que ce soit et vous pouvez expérimenter de nombreuses façons d'analyser vos données et de partager des informations avec de nombreux types de graphiques et de graphiques.

Je dois noter que Power BI est mon outil de visualisation de données préféré, mais vous peut être en mesure d'utiliser Tableau ou d'autres tout aussi puissants. Google Data Studio n'était pas une option pour cette analyse, car il autorise uniquement les jointures externes gauches des multiples sources de données et ne prend pas en charge les relations «plusieurs à plusieurs». C'est une manière technique de dire que Data Studio n'est pas assez flexible pour créer les relations de données dont nous avons besoin.

Étape 10: Analysez et visualisez!

Les visualisations intégrées de Power BI vous permettent de résumer et présenter rapidement les données. C'est là que nous pouvons commencer à analyser les données pour répondre aux questions que nous avons posées plus tôt.

Résultats – qu'avons-nous appris?

Voici quelques exemples des aperçus tirés de la fusion de nos classements et de nos données d'exploration. Alerte spoiler – CWV n’a pas un impact important sur les classements organiques… .pour autant!

Avec qui les banques sont-elles réellement en concurrence dans les SERPs? S'agit-il principalement d'autres banques?

Sur les ordinateurs de bureau, environ 67% des résultats de recherche organique appartiennent à des institutions financières (banques et coopératives de crédit) avec une forte concurrence des sites d'avis (7%) et des annuaires en ligne (22%). Ces informations aident à façonner nos stratégies de référencement pour les banques en exposant des possibilités de surveiller et de maintenir des listes dans des annuaires et des sites de critiques pertinents.

Bon, maintenant combinons nos sources de données pour voir comment la distribution des catégories de sites Web varie en fonction du rang sur les appareils de bureau. . Soudainement, nous pouvons voir que les institutions financières occupent en fait la majorité des 3 premiers résultats alors que les sites et répertoires de critiques sont plus répandus aux positions 4 à 10.

Quelle est l'importance des Core Web Vitals (CWV) pour les classements? Comment cela change-t-il au fil du temps?

Les performances du site et la vitesse du site sont des sujets d'actualité dans le référencement et ne deviendront que plus importants à mesure que CWV deviendra un signal de classement en mai de cette année. Nous pouvons commencer à comprendre les relations entre la vitesse du site et les classements en comparant les classements STAT et les données Pagespeed Insights des rapports Screaming Frog.

Depuis janvier 2021, les sites avec des scores de performance Lighthouse plus élevés (c'est-à-dire qu'ils se chargent plus rapidement ) ont tendance à mieux se classer que les sites avec des scores inférieurs. Cela pourrait aider à justifier les investissements dans la vitesse et les performances du site.

Certains éléments CWV sont plus étroitement corrélés à de meilleurs classements et d'autres sont plus dispersés. Cela ne veut pas dire que les CWV ne sont ni importants ni significatifs, mais plutôt un point de départ pour une analyse plus approfondie après mai.

Et alors? Que pouvons-nous apprendre de ce type d'analyse?

Par ailleurs, STAT et Screaming Frog sont des outils de référencement incroyablement puissants. Les données qu'ils fournissent sont utiles si vous êtes un SEO, mais la possibilité de fusionner des données et d'extraire des relations multipliera votre valeur dans toute organisation qui valorise les données et agit sur les insights.

En plus de valider certaines connaissances SEO généralement acceptées avec des données («Les sites plus rapides sont récompensés par de meilleurs classements»), une meilleure utilisation des données relationnelles peut également nous aider à éviter de consacrer un temps précieux à des tactiques moins importantes («améliorer le décalage de mise en page cumulatif à tout prix!»).

Bien sûr, la corrélation fait n'implique pas de causalité, et les données agrégées ne garantissent pas un résultat pour les sites individuels. Mais si vous êtes un professionnel du marketing bancaire responsable de l'acquisition de clients à partir de canaux organiques, vous devrez apporter ce type de données à vos parties prenantes pour justifier des investissements accrus dans le référencement.

En partageant les outils et la méthodologie, j'espère que d'autres iront plus loin en construisant et en apportant leurs découvertes supplémentaires à la communauté SEO. Quels autres ensembles de données pouvons-nous combiner pour approfondir notre compréhension des SERPs à plus grande échelle? Faites-moi part de vos réflexions dans les commentaires!

Inscrivez-vous au Moz Top 10 un mailer bimensuel vous mettant à jour sur les dix meilleures actualités SEO, astuces et liens rad découverts par l'équipe Moz. Considérez-le comme votre résumé exclusif de choses que vous n'avez pas le temps de traquer mais que vous voulez lire!




Source link