Fermer

juillet 25, 2018

Réécrire le Guide du débutant sur le référencement, chapitre 2: Ramping, indexation et classement


Quelques mois se sont écoulés depuis notre dernière partie de notre réécriture en cours du Guide du débutant sur le SEO, mais après une courte pause, nous sommes de retour pour partager notre ébauche du Chapitre Deux avec vous! Cela n'aurait pas été possible sans l'aide de Kameron Jenkins qui a judicieusement contribué son grand talent pour la fabrication de mots tout au long de cette pièce.

Ceci est votre ressource, le guide qui a probablement suscité votre intérêt et votre connaissance du SEO, et nous voulons le faire par vous. Vous avez laissé un commentaire étonnamment utile sur notre esquisse et ébauche du chapitre un et nous serions honorés si vous preniez le temps de nous faire savoir ce que vous pensez du chapitre deux dans le commentaires ci-dessous.


Chapitre 2: Fonctionnement des moteurs de recherche – exploration, indexation et classement

Tout d'abord, rendez-vous.

Comme nous l'avons mentionné au chapitre 1, les moteurs de recherche sont des machines à réponse. Ils existent pour découvrir, comprendre et organiser le contenu d'Internet afin d'offrir les résultats les plus pertinents aux questions posées par les chercheurs.

Pour être visible dans les résultats de recherche, votre contenu doit d'abord être visible par les moteurs de recherche. C'est sans doute la pièce la plus importante du puzzle SEO: Si votre site ne peut pas être trouvé, il n'y a aucun moyen que vous apparaîtrez jamais dans les SERPs (Search Engine Results Page).

Comment fonctionnent les moteurs de recherche?

Les moteurs de recherche ont trois fonctions principales:

  1. Crawl: Parcourez Internet à la recherche de contenu, en recherchant le code et le contenu de chaque URL trouvée
  2. Index: Stockez et organisez le contenu trouvé pendant le processus d'exploration. Une fois qu'une page est dans l'index, elle est en cours d'exécution pour être affichée comme résultat aux requêtes pertinentes.
  3. Classement: Fournissez les éléments de contenu qui répondront le mieux à la requête d'un chercheur. Commandez les résultats de la recherche par les plus utiles à une requête particulière.

Qu'est-ce que l'exploration des moteurs de recherche?

Crawling est le processus de découverte dans lequel les moteurs de recherche envoient une équipe de robots (appelés robots d'exploration ou araignées) pour trouver du contenu nouveau et mis à jour. Le contenu peut varier – il peut s'agir d'une page Web, d'une image, d'une vidéo, d'un fichier PDF, etc. – mais quel que soit le format, le contenu est découvert par des liens.

Le robot commence par extraire quelques pages Web, puis suit les liens sur ces pages Web pour trouver de nouvelles URL. En parcourant ce chemin de liens, les crawlers peuvent trouver du nouveau contenu et l'ajouter à leur index – une base de données massive d'URL découvertes – pour être récupérés plus tard lorsqu'un chercheur cherche des informations sur le fait que le contenu de cette URL correspond bien à .

Qu'est-ce qu'un index de moteur de recherche?

Les moteurs de recherche traitent et stockent les informations qu'ils trouvent dans un index, une énorme base de données de tout le contenu qu'ils ont découvert et jugent assez bon pour servir aux chercheurs.

Classement des moteurs de recherche

Lorsqu'une personne effectue une recherche, les moteurs de recherche parcourent leur index pour trouver du contenu très pertinent, puis le commandent dans l'espoir de résoudre la requête du chercheur. Cette classification des résultats de recherche par pertinence est appelée classement. En général, vous pouvez supposer que plus un site Web est classé, plus le moteur de recherche estime que ce site est pertinent pour la requête.

Il est possible de bloquer les moteurs de recherche sur une partie ou la totalité de votre site, ou d'indiquer aux moteurs de recherche d'éviter de stocker certaines pages dans leur index. Bien qu'il puisse y avoir des raisons à cela, si vous voulez que votre contenu soit trouvé par les utilisateurs, vous devez d'abord vous assurer qu'il est accessible aux robots d'exploration et qu'il peut être indexé. Sinon, c'est aussi bon qu'invisible.

A la fin de ce chapitre, vous aurez le contexte dont vous avez besoin pour travailler avec le moteur de recherche, plutôt que contre lui!

Note: Dans SEO, tous les moteurs de recherche ne sont pas égaux

Beaucoup de débutants s'interrogent sur l'importance relative de certains moteurs de recherche. La plupart des gens savent que Google a la plus grande part de marché, mais quelle est l'importance d'optimiser pour Bing, Yahoo et d'autres? La vérité est que malgré l'existence de plus de 30 grands moteurs de recherche web la communauté SEO ne fait vraiment attention qu'à Google. Pourquoi? La réponse courte est que Google est où la grande majorité des gens recherchent sur le web. Si nous incluons Google Images, Google Maps et YouTube (propriété de Google), plus de 90% des recherches sur le Web se produisent sur Google – soit près de 20 fois Bing et Yahoo combinés .

Crawling: Les moteurs de recherche peuvent-ils trouver votre site?

Comme vous venez de l'apprendre, vous assurer que votre site est exploré et indexé est une condition préalable pour apparaître dans les SERPs. Les choses d'abord: Vous pouvez vérifier le nombre et les pages de votre site Web qui ont été indexées par Google en utilisant "site: yourdomain.com ", un opérateur de recherche avancée .

Allez sur Google et tapez "site: votredomaine.com " dans la barre de recherche. Cela retournera les résultats que Google a dans son index pour le site spécifié:

 Screen Shot 2017-08-03 at 5.19.15 PM.png

Le nombre de résultats affichés par Google (voir "À propos de __ résultats" ci-dessus) n'est pas exact, mais il donne vous avez une bonne idée des pages qui sont indexées sur votre site et comment elles apparaissent actuellement dans les résultats de recherche.

Pour obtenir des résultats plus précis, surveillez et utilisez le rapport Couverture de l'index dans Google Search Console. Vous pouvez vous inscrire gratuitement compte Google Search Console si vous n'en possédez pas actuellement. Avec cet outil, vous pouvez soumettre des sitemaps pour votre site et contrôler le nombre de pages soumises qui ont été ajoutées à l'index Google, entre autres.

Si vous n'apparaissez nulle part dans les résultats de recherche, voici quelques raisons possibles:

  • Votre site est flambant neuf et n'a pas encore été exploré.
  • Votre site n'est pas lié à un site Web externe
  • La navigation de votre site rend difficile l'exploration complète d'un robot.
  • Votre site contient du code de base appelé directive robot qui bloque les moteurs de recherche.
  • Votre site a été pénalisé par Google pour les tactiques de spam.

Si votre site ne comporte aucun autre site, vous pouvez toujours l'indexer en envoyant votre sitemap XML dans Google Search Console ou soumettant manuellement des URL individuelles à Google . Il n'y a aucune garantie qu'ils incluront une URL soumise dans leur index, mais cela vaut la peine d'essayer!

Les moteurs de recherche peuvent-ils voir votre site entier?

Parfois, un moteur de recherche peut trouver des parties de votre site en rampant, mais d'autres pages ou sections peuvent être masquées pour une raison ou une autre. Il est important de s'assurer que les moteurs de recherche sont en mesure de découvrir tout le contenu que vous voulez indexé, et pas seulement votre page d'accueil.

Demandez-vous ceci: Est-ce que le robot peut explorer à travers votre site Web, et pas seulement à il?

Votre contenu est-il caché derrière des formulaires de connexion?

Si vous demandez aux utilisateurs de se connecter, de remplir des formulaires ou de répondre à des sondages avant d'accéder à certains contenus, les moteurs de recherche ne verront pas ces pages protégées. Un crawler est définitivement ne va pas se connecter.

Comptez-vous sur des formulaires de recherche?

Les robots ne peuvent pas utiliser les formulaires de recherche. Certaines personnes croient que si elles placent une boîte de recherche sur leur site, les moteurs de recherche seront en mesure de trouver tout ce que leurs visiteurs recherchent.

Le texte est-il caché dans un contenu non-textuel?

Les formulaires multimédias non-textuels (images, vidéos, GIF, etc.) ne doivent pas être utilisés pour afficher le texte que vous souhaitez indexer. Alors que les moteurs de recherche reconnaissent mieux les images, rien ne garantit qu'ils seront en mesure de les lire et de les comprendre pour l'instant. Il est toujours préférable d'ajouter du texte dans le balisage de votre page Web.

Les moteurs de recherche peuvent-ils suivre la navigation sur votre site?

Tout comme un robot a besoin de découvrir votre site via des liens d'autres sites, il a besoin d'un lien vers votre site. Si vous avez une page que vous voulez que les moteurs de recherche trouvent, mais elle n'est pas liée à d'autres pages, elle est aussi invisible qu'invisible. De nombreux sites commettent l'erreur critique de structurer leur navigation de manière inaccessible aux moteurs de recherche, ce qui entrave leur capacité à figurer dans les résultats de recherche.

Erreurs de navigation courantes qui empêchent les robots d'exploration de voir tout votre site:

  • Avoir une navigation mobile qui montre des résultats différents de la navigation sur votre bureau
  • Tout type de navigation où les éléments de menu ne sont pas dans le HTML, comme les navigations JavaScript. Google a beaucoup mieux réussi à crawler et comprendre Javascript, mais n'est toujours pas un processus parfait . Le moyen le plus sûr de s'assurer que quelque chose est trouvé, compris et indexé par Google est de le mettre dans le HTML.
  • La personnalisation, ou la navigation unique vers un type spécifique de visiteur par rapport aux autres, pourrait sembler être une recherche crawler moteur
  • Oublier de créer un lien vers une page primaire sur votre site web grâce à votre navigation – souvenez-vous, les liens sont les chemins que les robots suivent vers les nouvelles pages!

C'est pourquoi il est essentiel que votre site structures.

Architecture de l'information

L'architecture de l'information est la pratique consistant à organiser et à étiqueter le contenu d'un site Web afin d'en améliorer l'efficacité et la rentabilité pour les utilisateurs. La meilleure architecture d'information est intuitive, ce qui signifie que les utilisateurs ne devraient pas avoir à réfléchir très fort pour traverser votre site ou trouver quelque chose.

Votre site doit également contenir une page utile 404 (page non trouvée) lorsqu'un visiteur clique sur un lien mort ou tape une URL. Les meilleures pages 404 permettent aux utilisateurs de cliquer sur votre site afin qu'ils ne rebondissent pas simplement parce qu'ils ont essayé d'accéder à un lien inexistant.

Dites aux moteurs de recherche comment explorer votre site

En plus de vous assurer que les robots d'exploration atteignent vos pages les plus importantes, il est également pertinent de noter que vous aurez des pages sur votre site. ] ne veut pas qu'ils trouvent. Ceux-ci peuvent inclure des URL anciennes ayant un contenu fin, des URL dupliquées (telles que les paramètres de tri et de filtrage pour le commerce électronique), des pages de codes promotionnels spéciaux, des pages de test ou de test, etc.

Le blocage de pages provenant de moteurs de recherche peut également aider les robots d'exploration à hiérarchiser vos pages les plus importantes et à optimiser votre budget d'exploration (le nombre moyen de pages qu'un robot de moteur de recherche explorera sur votre site).

Les directives Crawler vous permettent de contrôler ce que vous souhaitez que Googlebot explore et indexe à l'aide d'un fichier robots.txt, d'une balise meta, d'un fichier sitemap.xml ou de Google Search Console.

Robots.txt

Les fichiers Robots.txt se trouvent dans le répertoire racine des sites Web (ex: votredomaine.com/robots.txt) et suggèrent les parties de votre moteur de recherche de site qui devraient et ne devraient pas être explorées via directives spécifiques robots.txt . C'est une excellente solution lorsque vous essayez de bloquer les moteurs de recherche à partir de pages non privées sur votre site.

Vous ne souhaitez pas empêcher l'exploration des pages privées / sensibles car le fichier est facilement accessible aux utilisateurs et aux robots.

Astuce du pro:

  • Si Googlebot ne peut pas trouver un fichier robots.txt pour un site ( code d'état HTTP 40X ), il continue à explorer le site.
  • Si Googlebot trouve un fichier robots.txt pour un site ( code d'état HTTP 20X ), il se conformera généralement aux suggestions et procédera à l'exploration du site.
  • Si Googlebot ne trouve aucun code d'état HTTP 20X ou 40X (par exemple une erreur de serveur 501), il ne peut pas déterminer si vous avez un fichier robots.txt ou non et n'explore pas votre site.

directives

Les deux types de méta-directives sont la balise meta robots (plus communément utilisée) et la balise x-robots . Chacun fournit aux robots d'exploration des instructions plus précises sur la manière d'explorer et d'indexer le contenu d'une URL.

La balise x-robots offre plus de flexibilité et de fonctionnalité si vous souhaitez bloquer les moteurs de recherche à grande échelle car vous pouvez utiliser des expressions régulières, bloquer des fichiers non HTML et appliquer des tags noindex sur l'ensemble du site.

Voici les meilleures options pour bloquer les URL * / private plus sensibles des moteurs de recherche.

* Pour les URL très sensibles, il est recommandé de les supprimer ou de demander une connexion sécurisée pour afficher les pages.

Astuce WordPress: Dans Tableau de bord> Paramètres> Lecture, assurez-vous que la case "Visibilité du moteur de recherche" n'est pas cochée. Cela empêche les moteurs de recherche de venir sur votre site via votre fichier robots.txt!

Évitez ces pièges courants et vous disposerez d'un contenu propre et explorable qui permettra aux bots d'accéder facilement à vos pages.

Une fois que vous avez vérifié que votre site a été exploré, la prochaine étape consiste à s'assurer qu'il peut être indexé. C'est vrai – juste parce que votre site peut être découvert et exploré par un moteur de recherche ne signifie pas nécessairement qu'il sera stocké dans leur index. Lisez la suite pour en savoir plus sur le fonctionnement de l'indexation et comment vous pouvez vous assurer que votre site est inclus dans cette base de données essentielle.

Sitemaps

Un sitemap est exactement ce que cela ressemble: une liste d'URL sur votre site que les robots d'exploration peuvent utiliser pour découvrir et indexer votre contenu. L'un des moyens les plus simples de s'assurer que Google trouve vos pages les plus prioritaires est de créer un fichier conforme aux normes Google et de le soumettre via Google Search Console. Bien que la soumission d'un sitemap ne remplace pas la nécessité d'une bonne navigation sur le site, elle peut certainement aider les robots d'exploration à suivre un chemin vers toutes vos pages importantes.

Google Search Console

Certains sites (les plus courants avec le commerce électronique) proposent le même contenu sur plusieurs URL différentes en ajoutant certains paramètres aux URL. Si vous avez déjà magasiné en ligne, vous avez probablement restreint votre recherche via des filtres. Par exemple, vous pouvez rechercher "chaussures" sur Amazon, puis affiner votre recherche par taille, couleur et style. Chaque fois que vous affinez, l'URL change légèrement. Comment Google sait-il quelle version de l'URL doit être diffusée aux internautes? Google fait du bon travail pour trouver l'URL représentative, mais vous pouvez utiliser la fonctionnalité Paramètres d'URL dans Google Search Console pour indiquer à Google exactement comment vous souhaitez qu'il traite vos pages.

Indexation: Comment les moteurs de recherche comprennent-ils et se souviennent-ils de votre site?

Une fois que vous avez vérifié que votre site a été exploré, le prochain point de l'ordre est de l'indexer. C'est vrai – juste parce que votre site peut être découvert et exploré par un moteur de recherche ne signifie pas nécessairement qu'il sera stocké dans leur index. Dans la section précédente sur l'exploration, nous avons expliqué comment les moteurs de recherche découvraient vos pages Web. L'index est l'endroit où vos pages découvertes sont stockées. Une fois qu'un robot a trouvé une page, le moteur de recherche la restitue comme un navigateur. En cours de réalisation, le moteur de recherche analyse le contenu de cette page. Toutes ces informations sont stockées dans son index.

Lisez la suite pour en savoir plus sur le fonctionnement de l'indexation et sur la façon dont vous pouvez vous assurer que votre site est inclus dans cette importante base de données.

Puis-je voir comment un robot d'exploration Googlebot voit mes pages?

Oui, la version mise en cache de votre page reflète un instantané de la dernière fois que googlebot l'a explorée.

Google explore et met en cache des pages Web à différentes fréquences. Les sites bien établis et bien connus qui affichent fréquemment https://www.nytimes.com seront explorés plus fréquemment que le site Web beaucoup moins célèbre pour l'agitation de Roger le Mozbot, http : //www.rogerlovescupcakes.com ( si seulement c'était réel …)

Vous pouvez voir à quoi ressemble votre version en cache d'une page en cliquant sur la flèche déroulante à côté de l'URL dans le SERP et en choisissant "Cached":

Vous pouvez également afficher la version en texte seul de votre site pour déterminer si votre contenu important est analysé et mis en cache de manière efficace.

Les pages sont-elles jamais supprimées de l'index?

Oui, les pages peuvent être supprimées de l'index! Certaines des principales raisons pour lesquelles une URL pourrait être supprimée comprennent:

  • L'URL renvoie une erreur "introuvable" (4XX) ou une erreur serveur (5XX) – Cela peut être accidentel (la page a été déplacée et une redirection 301 n'a pas été configurée) ou intentionnelle ( la page a été supprimée et 404ed afin de la retirer de l'index)
  • L'URL avait une balise meta noindex ajoutée – Cette balise peut être ajoutée par les propriétaires du site pour demander au moteur de recherche d'omettre la page de son index
  • L'URL a été pénalisée manuellement pour avoir enfreint les consignes aux webmasters du moteur de recherche et, par conséquent, a été supprimée de l'index.
  • L'URL a été bloquée à l'exploration avec l'ajout d'un mot de passe requis avant que les visiteurs puissent accéder à la page.

Si vous pensez qu'une page de votre site Web qui figurait précédemment dans l'index de Google n'apparaît plus, vous pouvez envoyer manuellement l'URL à Google en accédant au " Envoyer l'URL "dans la Search Console.

Classement: Comment les moteurs de recherche classent-ils les URL?

Comment les moteurs de recherche s'assurent-ils que lorsque quelqu'un tape une requête dans la barre de recherche, ils obtiennent des résultats pertinents en retour? Ce processus est connu sous le nom de classement, ou l'ordre des résultats de recherche par le plus pertinent au moins pertinent pour une requête particulière.

Pour déterminer la pertinence, les moteurs de recherche utilisent des algorithmes, un processus ou une formule grâce auxquels les informations stockées sont récupérées et classées de manière significative. Ces algorithmes ont subi de nombreux changements au fil des ans afin d'améliorer la qualité des résultats de recherche. Google, par exemple, effectue des ajustements d'algorithmes tous les jours – certaines de ces mises à jour sont des modifications de qualité mineures, tandis que d'autres sont des mises à jour d'algorithmes de base. Consultez notre Historique des modifications de Google Algorithm pour obtenir la liste des mises à jour Google confirmées et non confirmées remontant à l'an 2000.

Pourquoi l'algorithme change-t-il si souvent? Est-ce que Google essaye juste de nous garder sur nos orteils? Bien que Google ne révèle pas toujours les raisons pour lesquelles il fait ce qu'il fait, nous savons que le but de Google lors des ajustements d'algorithmes est d'améliorer la qualité globale de la recherche. C'est pourquoi, en réponse aux questions de mise à jour des algorithmes, Google répondra par: «Nous faisons des mises à jour de qualité tout le temps». Cela indique que si votre site souffrait après un ajustement d'algorithme, comparez-le à Les lignes directrices sur la qualité de Google ou sur les critères d'évaluation de la qualité de la recherche sont très révélatrices en ce qui concerne les moteurs de recherche.

Que veulent les moteurs de recherche?

Les moteurs de recherche ont toujours voulu la même chose: fournir des réponses utiles aux questions du chercheur dans les formats les plus utiles. Si c'est vrai, alors pourquoi semble-t-il que SEO est différent maintenant que dans les années passées?

Pensez-y en termes de quelqu'un qui apprend une nouvelle langue.

Au début, leur compréhension de la langue est très rudimentaire – «Voir Spot Run». Au fil du temps, leur compréhension commence à s'approfondir et ils apprennent la sémantique – la signification derrière le langage et la relation entre les mots et les phrases. Finalement, avec suffisamment de pratique, l'étudiant connaît suffisamment la langue pour comprendre les nuances, et est capable de fournir des réponses à des questions même vagues ou incomplètes.

Lorsque les moteurs de recherche commençaient tout juste à apprendre notre langue, il était beaucoup plus facile de jouer au système en utilisant des astuces et des tactiques qui vont à l'encontre des règles de qualité. Prenez le bourrage de mots-clés, par exemple. Si vous souhaitez classer un mot-clé particulier comme "blagues amusantes", vous pouvez ajouter les mots "blagues" sur votre page, et le mettre en gras, dans l'espoir d'améliorer votre classement pour ce terme:

Bienvenue à blagues drôles ! Nous racontons les blagues les plus drôles dans le monde. Les blagues drôles sont amusantes et folles. Votre blague drôle attend. Asseyez-vous et lisez blagues drôles parce que blagues drôles peuvent vous rendre heureux et plus drôle. Quelques blagues drôles préférées .

Cette tactique a fait de terribles expériences utilisateur, et au lieu de rire de blagues, les gens ont été bombardés par un texte ennuyeux et difficile à lire. Cela a peut-être marché dans le passé, mais ce n'est jamais ce que recherchaient les moteurs de recherche.

Le rôle des liens dans le SEO

Quand on parle de liens, on pourrait dire deux choses. Backlinks ou «liens entrants» sont des liens d'autres sites Web qui pointent vers votre site Web, tandis que les liens internes sont des liens sur votre propre site qui pointent vers vos autres pages (sur le même site).

Les liens ont historiquement joué un grand rôle dans le référencement. Très tôt, les moteurs de recherche ont eu besoin d'aide pour déterminer quelles URL étaient plus fiables que d'autres pour les aider à déterminer comment classer les résultats de recherche. Le calcul du nombre de liens pointant vers un site donné les a aidés à le faire.

Les backlinks fonctionnent de manière très similaire aux références WOM (Word-Of-Mouth) réelles. Prenons un café hypothétique, Jenny's Coffee, à titre d'exemple:

  • Références d'autres personnes = bon signe d'autorité
    Exemple: Beaucoup de personnes différentes vous ont dit que Jenny's Coffee est le meilleur en ville
  • Références de vous-même = biaisé, donc pas bon signe d'autorité
    Exemple: Jenny prétend que Jenny's Coffee est le meilleur en ville
  • Références provenant de sources non pertinentes ou de mauvaise qualité = pas un bon signe d'autorité et pourrait même vous mettre en alerte pour du spam
    Exemple: Jenny a payé pour avoir des gens
  • Pas de références = autorité floue
    Exemple: Jenny's Coffee pourrait être bon, mais vous avez été incapable de trouver quelqu'un qui a une opinion, donc vous ne pouvez pas être

C'est la raison pour laquelle PageRank a été créé. PageRank (partie de l'algorithme de base de Google) est un algorithme d'analyse de lien nommé d'après l'un des fondateurs de Google, Larry Page. PageRank estime l'importance d'une page Web en mesurant la qualité et la quantité de liens pointant vers elle. L'hypothèse est que plus une page Web est pertinente, importante et digne de confiance, plus elle aura gagné de liens.

Plus vous avez de backlinks naturels dans les sites de haute autorité (de confiance), plus vos chances de figurer dans les résultats de recherche sont élevées.

Le rôle que joue le contenu dans le SEO

Il n'y aurait aucun intérêt pour les liens s'ils ne dirigeaient pas les chercheurs vers quelque chose. Ce quelque chose est content! Le contenu est plus que de simples mots. c'est quelque chose qui doit être consommé par les chercheurs – il y a du contenu vidéo, du contenu d'image et, bien sûr, du texte. Si les moteurs de recherche sont des machines à réponse, le contenu est le moyen par lequel les moteurs fournissent ces réponses.

Chaque fois que quelqu'un effectue une recherche, il y a des milliers de résultats possibles, alors comment les moteurs de recherche peuvent-ils décider quelles pages le chercheur va trouver utiles? Une grande partie de déterminer où votre page se classera pour une requête donnée est de savoir comment le contenu de votre page correspond à l'intention de la requête. En d'autres termes, cette page correspond-elle aux mots recherchés et aide-t-elle à accomplir la tâche que le chercheur essayait d'accomplir?

En raison de cette focalisation sur la satisfaction des utilisateurs et l'accomplissement des tâches, il n'y a pas de critères stricts sur la durée de votre contenu, le nombre de fois qu'il doit contenir un mot clé ou ce que vous mettez dans vos balises. Tous ceux qui peuvent jouer un rôle dans la performance d'une page dans la recherche, mais l'accent devrait être mis sur les utilisateurs qui liront le contenu.

Aujourd'hui, avec des centaines ou même des milliers de signaux de classement, les trois premiers sont restés assez constants: liens vers votre site Web (qui servent de signaux de crédibilité tiers), contenu sur la page (contenu de qualité répondant à l'intention du chercheur ), et RankBrain.

Qu'est-ce que RankBrain?

RankBrain est le composant d'apprentissage automatique de l'algorithme de base de Google. L'apprentissage automatique est un programme informatique qui continue d'améliorer ses prédictions au fil du temps grâce à de nouvelles observations et à des données d'apprentissage. En d'autres termes, c'est toujours l'apprentissage, et parce que c'est toujours l'apprentissage, les résultats de recherche devraient être en constante amélioration.
Par exemple, si RankBrain remarque une URL de rang inférieur offrant un meilleur résultat aux utilisateurs que les URL de classement supérieur, vous pouvez parier que RankBrain ajustera ces résultats, déplaçant le résultat le plus pertinent et rétrograder les pages les moins pertinentes en tant que sous-produit .

Comme la plupart des choses avec le moteur de recherche, nous ne savons pas exactement ce que comprend RankBrain, mais apparemment, ni les gens de Google .

Qu'est-ce que cela signifie pour les SEO?

Parce que Google continuera à tirer parti de RankBrain pour promouvoir le contenu le plus pertinent et le plus utile, nous devons nous concentrer sur la satisfaction de l'intention du chercheur plus que jamais auparavant. Fournissez les meilleures informations et l'expérience possible aux chercheurs qui pourraient atterrir sur votre page, et vous avez fait un grand pas en avant pour obtenir de bons résultats dans un monde RankBrain.

Statistiques d'engagement: corrélation, causalité, ou les deux?

Avec les classements de Google, les mesures de l'engagement sont très probablement une corrélation partielle et une causalité partielle.

Quand nous disons métriques d'engagement nous entendons des données qui représentent comment les chercheurs interagissent avec votre site à partir des résultats de recherche. Cela inclut des choses comme:

  • Clics (visites de la recherche)
  • Temps passé sur la page (temps passé par le visiteur sur une page avant de le quitter)
  • Taux de rebond (pourcentage de toutes les sessions de site Web) [19659031] Pogo-sticking (en cliquant sur un résultat organique puis en retournant rapidement au SERP pour choisir un autre résultat)

De nombreux tests, dont propre classement factoriel de Moz indiquent que les métriques d'engagement sont corrélées avec un classement plus élevé , mais la causalité a été vivement débattue. De bons indicateurs de participation sont-ils simplement indicatifs de sites hautement classés? Ou les sites sont-ils bien classés parce qu'ils possèdent de bonnes mesures d'engagement?

Ce que Google a dit

Bien qu'ils n'aient jamais utilisé le terme «signal de classement direct», Google a clairement indiqué qu'ils utilisaient absolument les données de clic pour modifier le SERP pour des requêtes particulières.

Selon l'ancien chef de la qualité de recherche de Google Udi Manber:

"Le classement lui-même est affecté par les données de clic. Si nous découvrons que, pour une requête donnée, 80% des gens cliquent sur # 2 et seulement 10% cliquent sur # 1, après un certain temps, nous découvrons probablement que # 2 est ce que les gens veulent, donc nous allons le changer.

Un autre commentaire de l'ancien ingénieur de Google, Edmond Lau, corrobore ceci:

"Il est assez clair que tout moteur de recherche raisonnable utiliserait les données de clic sur ses propres résultats pour revenir au classement afin d'améliorer la qualité des résultats de recherche. La mécanique réelle de l'utilisation des données de clic est souvent propriétaire, mais Google fait clairement comprendre qu'il utilise des données de clic avec ses brevets sur des systèmes comme r éléments de contenu ajustés par ank . "

Parce que Google doit maintenir et améliorer la qualité de ses recherches, il semble inévitable que les statistiques d'engagement soient plus qu'une simple corrélation, mais il semblerait que Google n'appelle pas un métrique d'engagement parce que ces mesures sont utilisées pour améliorer la qualité de la recherche. ] qualité de recherche et le rang des URL individuelles est juste un sous-produit de cela.

Quels tests ont confirmé

Divers tests ont confirmé que Google va ajuster l'ordre SERP en réponse à l'engagement du chercheur:

  • Le test de 2014 de Rand Fishkin a abouti à un résultat # 7 passant à la première place après avoir permis à environ 200 personnes de cliquer sur l'URL du SERP. Fait intéressant, l'amélioration du classement semblait être isolée de l'emplacement des personnes qui ont visité le lien. La position de rang a augmenté aux États-Unis, où beaucoup de participants ont été localisés, alors qu'il est resté plus bas sur la page dans Google Canada, Google Australie, etc.
  • Comparaison de Larry Kim de dessus de page avant et après RankBrain semblait indiquer que la composante d'apprentissage automatique de l'algorithme de Google rétrograde la position de classement des pages que les gens ne passent pas autant de temps sur.
  • Les tests de Darren Shaw ont montré l'utilisateur l'impact du comportement sur la recherche locale et les résultats du pack de cartes.

Puisque les mesures de participation des utilisateurs sont clairement utilisées pour ajuster les SERPs pour la qualité, et les changements de position de rang comme sous-produit, on peut dire que les SEO devraient optimiser leur engagement . L'engagement ne modifie pas la qualité objective de votre page Web, mais plutôt votre valeur pour les internautes par rapport aux autres résultats de cette requête. C'est pourquoi, après aucun changement à votre page ou ses backlinks, il pourrait décliner dans les classements si les comportements des utilisateurs indiquent qu'ils préfèrent les autres pages.

En termes de classement des pages Web, les métriques d'engagement agissent comme un vérificateur de faits. Les facteurs objectifs, tels que les liens et le contenu, classent d'abord la page, puis les statistiques d'interaction aident Google à corriger les erreurs si elles ne sont pas corrects.

L'évolution des résultats de recherche

À l'époque où les moteurs de recherche manquaient beaucoup de la sophistication qu'ils ont aujourd'hui, le terme «10 liens bleus» a été inventé pour décrire la structure plate du SERP. Chaque fois qu'une recherche était effectuée, Google renvoyait une page avec 10 résultats organiques, chacun dans le même format.

Dans ce paysage de recherche, la première place était le Saint-Graal de SEO . Mais quelque chose s'est passé. Google a commencé à ajouter des résultats dans de nouveaux formats sur leurs pages de résultats de recherche, appelées SERP features . Certaines de ces fonctionnalités SERP comprennent:

  • publicités payées
  • Snippets en vedette
  • Les gens demandent également des boîtes
  • Local (map) pack
  • Panneau de connaissances
  • Sitelinks

Et Google en ajoute de nouveaux tout le temps. It even experimented with “zero-result SERPs,” a phenomenon where only one result from the Knowledge Graph was displayed on the SERP with no results below it except for an option to “view more results.”

The addition of these features caused some initial panic for two main reasons. For one, many of these features caused organic results to be pushed down further on the SERP. Another byproduct is that fewer searchers are clicking on the organic results since more queries are being answered on the SERP itself.

So why would Google do this? It all goes back to the search experience. User behavior indicates that some queries are better satisfied by different content formats. Notice how the different types of SERP features match the different types of query intents.

Query Intent

Possible SERP Feature Triggered

Informational

Featured Snippet

Informational with one answer

Knowledge Graph / Instant Answer

Local

Map Pack

Transactional

Shopping

We’ll talk more about intent in Chapter 3, but for now, it’s important to know that answers can be delivered to searchers in a wide array of formats, and how you structure your content can impact the format in which it appears in search.

Localized search

A search engine like Google has its own proprietary index of local business listings, from which it creates local search results.

If you are performing local SEO work for a business that has a physical location customers can visit (ex: dentist) or for a business that travels to visit their customers (ex: plumber), make sure that you claim, verify, and optimize a free Google My Business Listing.

When it comes to localized search results, Google uses three main factors to determine ranking:

  1. Relevance
  2. Distance
  3. Prominence

Relevance

Relevance is how well a local business matches what the searcher is looking for. To ensure that the business is doing everything it can to be relevant to searchers, make sure the business’ information is thoroughly and accurately filled out.

Distance

Google use your geo-location to better serve you local results. Local search results are extremely sensitive to proximitywhich refers to the location of the searcher and/or the location specified in the query (if the searcher included one).

Organic search results are sensitive to a searcher's location, though seldom as pronounced as in local pack results.

Prominence

With prominence as a factor, Google is looking to reward businesses that are well-known in the real world. In addition to a business’ offline prominence, Google also looks to some online factors to determine local ranking, such as:

Reviews

The number of Google reviews a local business receives, and the sentiment of those reviews, have a notable impact on their ability to rank in local results.

Citations

A "business citation" or "business listing" is a web-based reference to a local business' "NAP" (name, address, phone number) on a localized platform (Yelp, Acxiom, YP, Infogroup, Localeze, etc.).

Local rankings are influenced by the number and consistency of local business citations. Google pulls data from a wide variety of sources in continuously making up its local business index. When Google finds multiple consistent references to a business's name, location, and phone number it strengthens Google's "trust" in the validity of that data. This then leads to Google being able to show the business with a higher degree of confidence. Google also uses information from other sources on the web, such as links and articles.

Check a local business' citation accuracy here.

Organic ranking

SEO best practices also apply to local SEO, since Google also considers a website’s position in organic search results when determining local ranking.

In the next chapter, you’ll learn on-page best practices that will help Google and users better understand your content.

[Bonus!] Local engagement

Although not listed by Google as a local ranking determiner, the role of engagement is only going to increase as time goes on. Google continues to enrich local results by incorporating real-world data like popular times to visit and average length of visits…

Screenshot of Google SERP result for a local business showing busy times of day

…and even provides searchers with the ability to ask the business questions!

Screenshot of the Questions & Answers portion of a local Google SERP result

Undoubtedly now more than ever before, local results are being influenced by real-world data. This interactivity is how searchers interact with and respond to local businesses, rather than purely static (and game-able) information like links and citations.

Since Google wants to deliver the best, most relevant local businesses to searchers, it makes perfect sense for them to use real time engagement metrics to determine quality and relevance.


You don’t have to know the ins and outs of Google’s algorithm (that remains a mystery!), but by now you should have a great baseline knowledge of how the search engine finds, interprets, stores, and ranks content. Armed with that knowledge, let’s learn about choosing the keywords your content will target!




Source link