Fermer

avril 11, 2019

Comment était le bogue de désindexation de Google?


Le vendredi 5 avril, après que de nombreux propriétaires de sites Web et de nombreux référenceurs aient signalé le nombre de pages en cours de classement, Google a confirmé un bogue qui désindexait les pages:

MozCast a montré une augmentation de la température sur plusieurs jours, y compris une hausse de 105 Le pic du 6 avril. Bien que la désindexation provoquerait naturellement un changement de classement, les pages étant temporairement tombées du classement avant de réapparaître, les outils de contrôle du SERP ne sont pas conçus pour séparer les différentes causes de flux.

Peut-on isoler le flux de désindexation?

Les propres outils de Google peuvent nous aider à vérifier si une page est indexée, mais le faire à grande échelle est difficile, et une fois qu'un événement est passé, nous n'avons plus un bon accès aux données historiques. Et si nous pouvions toutefois isoler un ensemble d'URL que nous pourrions raisonnablement espérer être stables dans le temps? Pourrions-nous utiliser cet ensemble pour détecter des modèles inhabituels?

Au cours du mois de février, l'ensemble de suivi quotidien de MozCast 10K comportait 149 043 URL uniques se classant sur la première page. J'ai réduit cela à un sous-ensemble d'URL ayant les propriétés suivantes:

  1. Elles apparaissaient à la page un tous les jours en février (28 fois au total)
  2. La ​​requête ne comportait pas de liens annexes (aucune intention dominante claire)
  3. URL classée à la position 5 ou supérieure

Etant donné que MozCast ne suit que la première page, je souhaitais réduire le bruit généré par une URL "en train de tomber", par exemple de la position n ° 9 à la position n ° 11. En utilisant ces qualificatifs, il me restait un ensemble de 23 237 URL "stables". Alors, quelle a été la performance de ces URL dans le temps?

Voici l'historique des données du 28 février 2019 au 10 avril. Ce graphique représente le pourcentage des 23 237 URL stables apparues dans les SERPs de MozCast:

Depuis toutes les URL. dans l’ensemble étant stables tout au long du mois de février, nous nous attendons à ce que 100% d’entre eux apparaissent le 28 février (comme le graphique le montre). Le changement dans le temps n’est pas spectaculaire, mais nous constatons une baisse constante des URL (un phénomène naturel de changement de SERP au fil du temps), avec une baisse nette le vendredi 5 avril, une reprise, puis une baisse similaire. le dimanche 7 avril

Pourriez-vous zoomer pour nous, les vieux?

Venant de passer aux contacts multifocaux, je ressens votre douleur. Faisons un peu le zoom sur l’axe Y (je voulais tout d’abord vous montrer la vérité non vernie) et ajouter une courbe de tendance. Voici ce graphique agrandi:

La ligne de tendance est en violet. Le départ de tendance les 5 et 7 avril est assez facile à voir dans la version agrandie. La baisse journalière du 5 avril était de 4,0%, suivie d'une reprise, puis d'une deuxième baisse très similaire, de 4,4%.

Notez que cette mesure a très peu évolué au cours du flux d'algorithmes de mars, y compris ". "core" mise à jour. Nous ne pouvons pas prouver de manière définitive que le dépôt d'URL stable représente clairement le processus de désindexation, mais il semble que les mises à jour d'algorithmes de Google n'influencent pas beaucoup.

Qu'en est-il de l'intention dominante?

, puisque ceux-ci sont fortement corrélés avec l'intention dominante. J'ai émis l'hypothèse que l'intention dominante pourrait masquer certains effets, car Google investit énormément dans la navigation sur des sites spécifiques pour ces requêtes. Voici la même analyse uniquement pour les requêtes avec des liens annexes étendus (cela donne un ensemble plus petit de 5 064 URL stables):

À l'exception de variations mineures, le modèle d'URL d'intention dominante semble être très similaire à celui de l'analyse précédente. Il semble que l'impact de la désindexation ait été généralisé.

Était-ce aléatoire ou systématique?

Il est difficile de déterminer si ce bogue était aléatoire, affectant tous les sites de la même manière, ou s'il était systématique. Il est possible que restreindre notre analyse à des URL "stables" fausse les résultats. D'autre part, essayer de mesurer l'instabilité des URL intrinsèquement instables est un peu absurde. Je dois également noter que le jeu de données MozCast est faussé en termes de "tête". Il ne contient pas beaucoup de requêtes dans la très longue queue, y compris des questions en langage naturel.

Une question à laquelle nous pouvons répondre est de savoir si les sites volumineux ont été affectés par le bogue. Le graphique ci-dessous isole notre "Big 3" dans MozCast: Wikipedia, Amazon et Facebook. Cela nous a ramené à 2 454 URL stables. Malheureusement, plus nous plongeons en profondeur, plus le jeu de données devient petit:

À la même échelle agrandie à 90-100%, vous pouvez voir que l'impact était plus petit que pour toutes les URL stables, mais la paire reste claire. des plongées du 5 et 7 avril. Il ne semble pas que ces méga-sites aient été immunisés.

En regardant les données journalières du 4 au 5 avril, il semble que les pertes aient été largement réparties dans de nombreux domaines. Parmi les domaines dont le nombre d'URL était supérieur ou égal à 10 au 4 avril, environ la moitié avaient perdu des URL de classement. Les seuls domaines qui ont subi une perte de 100% sur une journée sont ceux dont le nombre d'URL stables dans notre ensemble de données est égal ou inférieur à trois. D'après nos données, il ne semble pas que l'indexation cible systématiquement des sites spécifiques.

Est-ce fini et quelle est la suite?

Comme le dit l'une de mes citations préférées: "Il n'y a pas de fin heureuse parce que rien ne se termine." Pour le moment, les taux d’indexation semblent être revenus à la normale et je soupçonne que le pire est passé, mais je ne peux pas prédire l’avenir. Si vous pensez que vos URL ont été désindexées, il est utile de réindexer manuellement dans Google Search Console . Notez que c'est un processus assez fastidieux et qu'il existe des limites quotidiennes, alors concentrez-vous sur les pages critiques.

L'impact du bogue deindexing semble être mesurable, bien que nous puissions dire à quel point 4% sont importants. . Une baisse de 4% est assez conséquente pour les sites sortant du classement Google, mais l’impact à long terme pour la plupart des sites devrait être minime. Pour le moment, nous ne pouvons rien faire pour nous adapter – Google nous dit qu'il s'agissait d'un véritable bogue et non d'un changement délibéré. ​​




Source link