Fermer

juin 3, 2024

Guide complet de la sauvegarde des données UA

Guide complet de la sauvegarde des données UA


Sauvegarde des données

Dès 1 juillet 2024, le stockage des données Universal Analytics (GA3) cessera, ce qui représente un moment charnière dans les pratiques de gestion des données. Il est crucial que les organisations comprennent l’importance de préserver ces données pour les processus d’analyse et de prise de décision futurs. Les tendances historiques des données UA offrent des informations inestimables sur les comportements, les préférences et les modèles des utilisateurs au fil du temps.

Il est donc essentiel que les entreprises stockent ou téléchargent de manière proactive les données UA avant la date limite et continuent de les exploiter pour prendre des décisions éclairées et planifier leurs projets stratégiques.

Étapes pour remplir les données

Voici un guide étape par étape pour remplir les données UA afin de garantir qu’aucune donnée n’est perdue :

L’étape initiale et la plus cruciale consiste à déterminer quelles données conserver, en particulier compte tenu du volume important de données au sein de l’UA. Pour rationaliser ce processus, nous avons classé les données en deux parties distinctes, facilitant ainsi le développement de votre plan personnalisé.

Les données primaires englobent des informations de la plus haute importance pour l’organisation. Il est donc impératif de stocker ces données en toute sécurité. Ceci comprend:

– Événements de conversion, ainsi que des mesures telles que le nombre total d’événements et le nombre total d’utilisateurs.

– Informations liées au trafic détaillant les différents canaux par lesquels les utilisateurs accèdent au site. Cela peut être segmenté en catégories de sources/supports spécifiques.

– Campagnes qui attirent les utilisateurs, y compris des mesures telles que le nombre total d’utilisateurs, le nombre total d’événements et les conversions.

– Entonnoirs clés tels que l’entonnoir d’achat, l’entonnoir de paiement et d’autres entonnoirs liés au parcours. Leur analyse aide à comprendre les tendances historiques au fil du temps.

– Indicateurs de performance clés (KPI) essentiels pour l’organisation, comprenant des dimensions et des mesures personnalisées développées au fil du temps pour collecter des données spécifiques à l’organisation.

Les données de niveau secondaire comprennent des informations importantes, même si elles ne sont pas nécessairement immédiatement nécessaires, sauf si le site s’appuie fortement sur le contenu. Ceci comprend:

– Analyse des blogs/newsletters les plus lus sur le site, y compris des mesures telles que le nombre total d’utilisateurs, la durée moyenne des sessions, les sessions et le taux de rebond.

– Évaluation du temps de chargement moyen des pages pour évaluer les performances du site, ainsi que les pages vues.

– Données démographiques telles que l’âge et le sexe, fournissant des informations sur les données démographiques spécifiques à l’utilisateur pour une évaluation plus approfondie.

Cette étape est cruciale car elle détermine le volume de données à stocker. Un délai plus court génère moins de données et nécessite par conséquent moins d’espace de stockage, tandis qu’un délai plus long nécessite plus d’espace de stockage.

Généralement, un deux ans la période de conservation des données est considérée comme adéquate pour analyser les tendances historiques et en évaluer l’importance. Ce délai est largement accepté par la plupart des organisations.

  • Sélectionnez la méthode de remplissage des données

Sélectionnez judicieusement la méthode de remplissage des données pour garantir une récupération complète des données et la continuité de l’analyse.

1. Exporter manuellement les données

Google Analytics vous permet de télécharger les données dont vous avez besoin pour poursuivre vos travaux à l’aide d’un bouton EXPORTER au-dessus de la plage de dates dans chaque rapport.

Ouvrez le rapport Google Analytics que vous souhaitez enregistrer. Par exemple, Acquisition > Tout le trafic > Source/Support. Vous pouvez ensuite appliquer des paramètres supplémentaires : ajouter un segment, un filtre ou un autre paramètre pour le rapport.

Données de remplissage - Approche manuelle

Remplissage UA

Ensuite, dans le coin supérieur droit, cliquez sur le EXPORTER bouton. Sélectionnez le format de fichier dans le menu déroulant : PDF, Google Sheets, Excel (XLSX) ou CSV.

Limitation

  1. Un maximum de 5 000 les lignes peuvent être téléchargées, en s’alignant sur la limite d’affichage dans l’interface Google Analytics. Des données supplémentaires seront regroupées sous la catégorie « (autres) », ce qui nécessitera des méthodes d’exportation alternatives.
  2. Des volumes de visites quotidiens élevés peuvent entraîner un échantillonnage des données, ce qui a un impact sur l’exactitude des données exportées.

2. Exportez les données à l’aide du module complémentaire Google Analytics Spreadsheet (API)

Pour Universal Analytics (UA), Google propose son propre module complémentaire Google Analytics, permettant d’accéder aux données directement dans Google Sheets.

Avec le module complémentaire Google Analytics Spreadsheet, vous pouvez :

– Récupérer des données à partir de plusieurs vues

– Effectuer des calculs personnalisés basés sur les données du rapport

– Générez des visualisations à l’aide d’outils intégrés et intégrez-les sur des sites Web tiers

Cela constitue une alternative viable, en particulier lorsque le remplissage des données est spécifié. Notez cependant que la création d’un rapport peut prendre un certain temps, en particulier lors de la réduction des données.

Limites

Les limitations de l’exportation de données à l’aide du module complémentaire Google Analytics Spreadsheet Add-on (API) incluent :

1. Volume de données: Le module complémentaire peut avoir des limites sur la quantité de données pouvant être exportées en une seule requête. Les grands ensembles de données peuvent devoir être divisés en plusieurs requêtes, ce qui peut augmenter le temps de traitement et la complexité.

2. Quotas d’API: L’API Google Analytics a des quotas d’utilisation, y compris des limites sur le nombre de requêtes par jour et par utilisateur. Le dépassement de ces quotas peut entraîner des échecs d’exportation de données ou des restrictions temporaires sur l’accès à l’API.

3. Échantillonnage: lors de l’exportation de grands ensembles de données, Google Analytics peut appliquer un échantillonnage de données pour accélérer le traitement.

3. Exportation des données Google Analytics via Python

Pour extraire des données Universal Analytics (UA) via l’API et les exporter vers un fichier CSV à l’aide de Python, certains prérequis doivent être remplis :

– Visual Studio Code est essentiel pour le codage et la manipulation de scripts.

– La maîtrise de la programmation Python est un prérequis.

Note:

Lors de la récupération de données pendant des périodes prolongées, telles que 3-4 ans, un taux d’échantillonnage plus élevé est appliqué, bien qu’il soit inférieur à celui du portail GA. Pour garantir une plus grande précision des données, il est conseillé de récupérer les données tous les trimestres afin d’atténuer un échantillonnage excessif.

Limites

Lors du remplissage des données d’acquisition d’utilisateurs (UA) via Python, il existe plusieurs limitations à prendre en compte :

  1. Quotas d’API : Si vous utilisez des API pour récupérer des données UA, le nombre de requêtes que vous pouvez effectuer au cours d’une période donnée est souvent limité.
  2. Limites de taux : À l’instar des quotas d’API, des limites de débit peuvent être imposées par la source de données ou le fournisseur d’API. Le dépassement de ces limites peut entraîner une limitation ou une interdiction temporaire de l’accès à l’API.
  3. Temps de traitement des données : Le temps de traitement peut varier en fonction de facteurs tels que la taille de l’ensemble de données, la complexité des requêtes et les performances de l’infrastructure sous-jacente.

4. Exportation des données Google Analytics vers Big Query

L’exportation de données Universal Analytics vers BigQuery nécessite les conditions préalables suivantes :

– Un compte Google Cloud Platform avec facturation activée.

– Un projet BigQuery avec facturation activée pour stocker les données UA.

– Accès à Supermetrics, une solution de connecteur tiers facilitant le transfert de données UA vers BigQuery, car l’API est réservée aux utilisateurs UA 360 et n’est pas disponible pour la base d’utilisateurs générale.

– La maîtrise de SQL est nécessaire pour exécuter des requêtes sur les données UA dans BigQuery.

Limites

  1. Coûts de transfert de données: L’exportation de données UA vers BigQuery peut entraîner des coûts de transfert de données, en particulier si vous traitez de grands ensembles de données ou des mises à jour de données fréquentes.
  1. Volume et stockage des données : Les ensembles de données volumineux peuvent nécessiter une capacité de stockage et des ressources de traitement supplémentaires, ce qui peut augmenter les coûts et avoir un impact sur les performances.

Une fois que vous avez choisi la méthode, l’étape suivante consiste à déterminer l’emplacement de stockage des données, garantissant ainsi une visualisation et une analyse pratiques chaque fois que nécessaire..

un. Solutions de stockage en nuage :

– Google Cloud Storage propose un niveau gratuit avec un stockage limité et un accès à diverses fonctionnalités. Les utilisateurs peuvent stocker les données UA en toute sécurité et faire évoluer le stockage selon leurs besoins.

– Amazon S3 propose également un niveau gratuit avec un stockage limité et un accès aux débutants. Il s’agit d’une option fiable pour stocker des sauvegardes de données UA avec des options de récupération et de gestion des données.

b. Systèmes de stockage sur site :

– L’utilisation de l’infrastructure de stockage sur site existante n’entraîne aucun coût supplémentaire en dehors des dépenses de maintenance et d’exploitation. Cette option offre un contrôle total sur le stockage et la sécurité des données, idéal pour les organisations ayant des exigences de conformité strictes.

c. Entrepôts de données cloud :

– Les entrepôts de données cloud comme Google BigQuery, Amazon Redshift ou Snowflake offrent des solutions de stockage évolutives et performantes pour le traitement analytique des données UA.

En résumé, la sauvegarde des données souligne l’importance cruciale de préserver les informations précieuses pour une utilisation future. Choisir la bonne méthode garantit l’intégrité et l’accessibilité des données, permettant aux organisations de relever les défis, de prendre des décisions éclairées et de réussir en toute confiance.






Source link