L’utilisateur a besoin de conduire SERP Evolution / blogs / perficient

Les SERP changeront, l’IA sera une grande partie des changements et le référencement reste pertinent.
Ce sont des points clés soulevés lors de la recherche de Google Central en direct à New York le 20 mars.
«La recherche n’est jamais un problème résolu» Selon Liz Reid (cité lors de l’événement). John Mueller a souligné que «15% de toutes les recherches sont nouvelles chaque jour.» Cela signifie que Google doit travailler dur pour conserver un nouveau index et exécuter des algorithmes capables de servir les résultats qui répondent aux besoins des utilisateurs.
Présentation de l’IA
Le plus grand changement dans les SERP au cours de la dernière année est l’introduction de ce que Google appelle AI Aperview (AIO), une forme d’extrait en vedette sur les roids. Contrairement aux extraits en vedette, AIO est généré de texte basé sur plusieurs sources et souvent sans liens facilement trouvés vers d’autres sites Web.
L’impact de l’AIO sur les taux de clics n’est pas clair, mais les données des clients que j’ai vues, et les études de SEO PROS et vendeurs, montrent une diminution de 50 à 75% du CTR, selon la méthode. L’AIO peut améliorer le CTR pour les pages qui se classent si bas que même les maigres taux de liens répertoriés comme des citations dans AIO sont meilleurs que pour le résultat organique.
Le refus de Google de partager les données sur le trafic AIO dans le rapport de performance de la console de recherche a été sévèrement critiqué par les participants. Un représentant de Google a fait valoir qu’AIO est encore nouveau et change tellement de sens qu’il n’a pas de sens de partager les données à ce stade. Cet argument ne semblait pas bien se passer.
Spam, pénalités et abus de réputation du site
La maltraitance de la réputation du site est une action manuelle qui a également participé au chat l’année dernière. Il pénalise les sites Web qui utilisent du contenu de troisième partie pour se classer à l’aide de signaux gagnés par des travaux de premier parti. (Certains praticiens du référencement appellent cela comme «SEO parasite», ce qui n’a pas de sens car la relation est symbiotique).
La qualité du contenu tiers n’est pas pertinente dans l’évaluation, tout comme l’intention des éditeurs.
Danny Sullivan de Google a souligné que l’équipe de spam travaille dur pour décider si un site est coupable d’abus de réputation.
Sullivan a souligné que Google « ne déteste pas les pigistes ». Dans certains cercles indépendants et éditeurs, il y a une crainte que le travail indépendant soit un contenu tiers aux yeux de Google.
Il a également déclaré que Google pénalise les pratiques de spam, pas les personnes ou les sites (bien qu’un site soit évidemment affecté lorsqu’il est pénalisé pour l’utilisation de pratiques de spam).
Les indépendants qui écrivent pour un site qui a été pénalisé n’aura pas son travail sur d’autres sites pénalisé, et ces sites ne seront pas affectés parce qu’ils ont du contenu créé par quelqu’un qui a également créé du contenu pour un site qui a été pénalisé.
Quelle est la taille du problème du spam pour Google?
50% des documents que Google rencontre sur le Web est Spam, a déclaré Sullivan, mais 99% des sessions de recherche sont exemptes de spam. Ces chiffres sont bien sûr basés sur les définitions et mesures de Google. Vous pouvez le voir différemment.
Marque, classement et EEAT
La marque est devenue un terme de cure-tout dans l’industrie du référencement. Ce n’est pas tout ça, mais c’est important. Je définis la marque comme une solution largement reconnue pour un problème spécifique. Les gens préfèrent les marques lorsque vous recherchez une solution à un problème. Il faut du travail pour devenir une marque.
Sullivan a déclaré que «les systèmes de Google ne disent pas du tout la marque», mais «si vous êtes reconnu comme une marque… qui est en corrélation avec le succès de la recherche». Les signaux que Google collectionne a tendance à s’aligner avec les marques.
Mueller a souligné que vous ne pouvez pas «ajouter EEAT» à un site Web, ce n’est pas quelque chose que vous saupoudrez sur une page. Mettre un lien «À propos» sur votre site ne vous aidera pas à vous classer.
L’acronyme EEAT signifie l’expérience, l’expertise, l’autorisation et la fiabilité. Google utilise principalement ces concepts pour expliquer à ses évaluateurs de qualité de recherche ce qu’il faut rechercher lors de l’évaluation de la qualité des pages liées à partir des résultats de recherche,
Les directives sur les évaluations de la qualité de recherche de Google donnent de nombreux exemples d’entreprises qui ont un EEAT élevé. Par exemple, Visa, Discover et HSBC sont mentionnés comme des entreprises avec des services de carte de crédit élevés. La marque est une manière plus courante et plus balayante, si la manière plus vague de dire EEAT.
Visa n’est pas devenu une marque en ayant un doctorat. Dans les services financiers, écrivez des pages Web de longueur d’essais sur les merveilles des cartes de crédit. Eeat, comme la marque, est un résultat, pas une action.
Sullivan a déclaré que Google cherchait des moyens «de donner plus d’exposition aux petits éditeurs». Il a également dit que de nombreux sites ne sont tout simplement pas bons. Il a demandé pourquoi Google devrait classer votre site s’il y a des milliers d’autres sites qui sont tout aussi bons ou meilleurs?
C’est là que la marque devient la réponse. Devenez une solution largement reconnue et les signaux que Google utilise fonctionnera à votre avantage (mais pas toujours dans la mesure où vous voulez qu’ils fonctionnent).
Points divers faits lors de l’événement
- Google n’a pas de notion de liens toxiques
- Utilisez l’outil de désaveu de liens uniquement pour désavouer les liens que vous avez achetés
- Google ne rampe pas ou n’indexe pas chaque page sur chaque site
- Si une page n’est pas «utile», la réponse n’est pas simplement pour l’allonger. Un contenu plus inutile ne rend pas la page plus utile.
- Google Partners n’a pas de connexion intérieure avec Google pour une aide SEO.
- Vous n’avez pas besoin de remplir votre site avec un contenu d’actualité à classer. Cela est particulièrement vrai pour le référencement local (la question spécifique concernait le «marketing de contenu», ce qui est beaucoup plus large que de mettre du contenu sur votre site. Mueller n’a parlé que de contenu sur place).
- Le contenu en double est plus un problème technique qu’un problème de qualité. Le contenu en double peut avoir un impact indésirable sur la rampe, l’indexation et le classement.
- Les données structurées sont beaucoup plus précises que LLM. C’est aussi beaucoup moins cher.
- Les données structurées ne sont utiles que si beaucoup de gens les utilisent. La documentation de données structurées Google vous dit Quels types sont utilisés par Google et comment.
- Les données structurées ne sont pas un signal de classement, mais il peut vous aider à accéder aux fonctionnalités Serpp qui conduisent le trafic.
- Google Search ne favorise pas les sites Web qui achètent AdWords ou transportent AdSense.
Source link