Fermer

novembre 29, 2022

Comment identifier où votre organisation gagne (et perd) avec les données


Par George Trujillo, stratège principal des données, DataStax

L’innovation est motivée par la facilité et l’agilité du travail avec les données. L’augmentation du retour sur investissement de l’entreprise nécessite une compréhension stratégique de – et la capacité d’identifier clairement – où et comment les entreprises gagnent avec les données. C’est le seul moyen de conduire une stratégie à exécuter à un niveau élevé, avec rapidité et échelle, et de diffuser ce succès à d’autres parties de l’organisation. Ici, je soulignerai où et pourquoi ces importants « points d’intégration de données » qui sont des déterminants clés du succès de la stratégie de données et d’analyse d’une organisation.

Une mer de complexité

Pendant des années, les écosystèmes de données sont devenus plus complexes en raison de décisions de plate-forme de données discrètes (et pas nécessairement stratégiques) visant à traiter de nouveaux projets, cas d’utilisation ou initiatives. La technologie de superposition sur l’architecture globale des données introduit plus de complexité. Aujourd’hui, les défis de l’architecture des données et la complexité de l’intégration ont un impact sur la vitesse de l’innovation, la qualité des données, la sécurité des données, la gouvernance des données et à peu près tout ce qui est important pour générer de la valeur à partir des données. Pour la plupart des organisations, si cette complexité n’est pas abordée, les résultats commerciaux seront dilués.

L’augmentation des volumes et de la vitesse des données peut réduire la vitesse à laquelle les équipes effectuent des ajouts ou des modifications aux structures de données analytiques aux points d’intégration des données, où les données sont corrélées à partir de plusieurs sources différentes dans des actifs commerciaux de grande valeur. Pour les cas d’utilisation de prise de décision en temps réel, ceux-ci peuvent être dans une mémoire ou un cache de base de données. Pour les entrepôts de données, il peut s’agir d’un tableau analytique à colonnes larges.

De nombreuses entreprises atteignent un point où le taux de complexité dépasse la capacité des ingénieurs et architectes de données à prendre en charge la vitesse de gestion des changements de données requise pour l’entreprise. Les analystes commerciaux et les scientifiques des données accordent moins de confiance aux données à mesure que la dérive des données, des processus et des modèles augmente dans les différentes équipes technologiques aux points d’intégration. La dette technique ne cesse d’augmenter et tout ce qui concerne le travail avec les données devient plus difficile. Le cloud ne résout pas nécessairement cette complexité – c’est un problème de données, pas un problème sur site par rapport au cloud.

La réduction de la complexité est particulièrement importante pour créer de nouvelles expériences client ; obtenir une vue à 360 degrés des clients ; et la prise de décision pour les applications mobiles, l’IoT et la réalité augmentée accélèrent le déplacement des données en temps réel vers le centre de la gestion des données et de la stratégie cloud, et ont un impact sur les résultats. Nouveau rechercher a constaté que 71 % des organisations lient la croissance des revenus aux données en temps réel (données en mouvement continu, comme les données de flux de clics et appareils IoT intelligents ou médias sociaux).

Vagues de changement

Il y a des vagues de changement qui se répercutent sur les architectures de données pour aider à exploiter et à exploiter les données pour des résultats concrets. Plus de 80 % des nouvelles données ne sont pas structurées, ce qui a contribué à Bases de données NoSQL à la pointe de la stratégie de base de données. La popularité croissante du maillage de données Le concept met en évidence le fait que les secteurs d’activité doivent être plus autonomes en matière de données. Structures de données prennent de l’ampleur pour améliorer l’analyse sur différentes plates-formes analytiques. Tous ces changements nécessitent un leadership technologique pour recentrer la vision et la stratégie. Le point de départ consiste à examiner les données en temps réel, car elles deviennent le pipeline de données central pour un écosystème de données d’entreprise.

Il existe un nouveau concept qui apporte unité et synergie aux applications, aux technologies de streaming, aux bases de données et aux capacités cloud dans une architecture cloud native ; nous appelons cela le « nuage de données en temps réel ». Il s’agit de l’architecture de base et de la capacité d’intégration de données pour les produits de données de grande valeur. Les stratégies de données et de cloud doivent s’aligner. Les produits de données de grande valeur peuvent être associés à des KPI et des métriques au niveau du conseil d’administration. La vitesse de gestion du changement des structures de données en temps réel pour l’analyse déterminera les leaders de l’industrie car ces capacités définiront l’expérience client.

Prendre les bonnes décisions en matière de plateforme de données

Une première étape importante pour prendre les bonnes décisions technologiques pour un cloud de données en temps réel consiste à comprendre les capacités et les caractéristiques requises des plates-formes de données pour exécuter le modèle d’exploitation et la feuille de route d’une organisation. La création de valeur commerciale devrait être la base d’une plate-forme cloud de données en temps réel ; la capacité de démontrer aux chefs d’entreprise exactement comment un écosystème de données générera de la valeur commerciale est essentielle. Il doit également fournir toutes les données, de tout type, à grande échelle, de manière à ce que les équipes de développement puissent facilement en tirer parti pour créer de nouvelles applications.

L’article Qu’est-ce qui se dresse entre l’informatique et le succès de l’entreprise souligne l’importance de s’éloigner d’une perspective cloisonnée et de se concentrer sur l’optimisation de la façon dont les données circulent dans un écosystème de données. Regardons cela d’un point de vue analytique.

Les données doivent circuler le plus librement possible dans un écosystème, des sources de données aux plateformes d’ingestion, en passant par les bases de données et les plateformes d’analyse. Les données ou les dérivés des données peuvent également revenir dans l’écosystème des données. Les consommateurs de données (équipes d’analyse et développeurs, par exemple) génèrent ensuite des informations et une valeur commerciale à partir de l’analyse, de l’apprentissage automatique et de l’IA. Un écosystème de données doit rationaliser les flux de données, réduire la complexité et permettre aux équipes commerciales et de développement de travailler plus facilement avec les données de l’écosystème.

DataStax

Étude de marché IDC souligne que les entreprises peuvent perdre jusqu’à 30 % de leurs revenus par an en raison d’inefficacités résultant de données incorrectes ou cloisonnées. Les analystes commerciaux et les scientifiques des données frustrés font face à ces inefficacités tous les jours. Il faut des mois pour intégrer de nouveaux analystes commerciaux, la difficulté à comprendre et à faire confiance aux données, et les retards dans les demandes commerciales de modification des données sont des coûts cachés ; ils peuvent être difficiles à comprendre, à mesurer et (surtout) à corriger. Recherche de Crux montre que les entreprises sous-estiment leurs coûts de pipeline de données jusqu’à 70 %.

Les données en mouvement sont ingérées dans files d’attente de messages, publication de messages d’abonnement (pub/sub) et plates-formes de diffusion d’événements. Les points d’intégration de données se produisent avec les données en mouvement dans la mémoire/les caches de données et les tableaux de bord qui ont un impact sur la prise de décision en temps réel et l’expérience client. Les points d’intégration de données apparaissent également dans les bases de données. La qualité de l’intégration des données en mouvement et des bases de données a un impact sur la qualité de l’intégration des données dans les plateformes analytiques. La complexité des points d’intégration des données a un impact sur la qualité et la rapidité de l’innovation pour l’analyse, l’apprentissage automatique et l’intelligence artificielle dans tous les secteurs d’activité.

DataStax

Standardiser pour optimiser

Pour réduire la complexité aux points d’intégration des données et améliorer la capacité à prendre des décisions en temps réel, le nombre de technologies qui convergent à ces points doit être réduit. Ceci est accompli en travaillant avec une plate-forme d’ingestion de données polyvalente qui peut prendre en charge la mise en file d’attente des messages, la pub/sub et la diffusion d’événements. Travailler avec un base de données multi-modèles qui peut prendre en charge un large éventail de cas d’utilisation réduit l’intégration des données à partir d’un large éventail de bases de données à usage unique. Kubernetes devient également la norme pour la gestion des applications cloud natives. Travailler avec des plates-formes d’ingestion de données et des bases de données natives du cloud permet à Kubernetes d’aligner les applications, les pipelines de données et les bases de données.

Comme indiqué dans le livre L’architecture d’entreprise en tant que stratégie : créer une stratégie pour l’exécution de l’entreprise, « Standardiser, optimiser, créer un effet cumulé sur l’ensemble de l’entreprise. » En d’autres termes, la rationalisation d’un écosystème de données réduit la complexité et augmente la vitesse d’innovation avec les données.

Là où les organisations gagnent avec les données

La complexité générée par des plates-formes technologiques de données disparates augmente la dette technique, rendant les consommateurs de données plus dépendants d’équipes centralisées et d’experts spécialisés. L’innovation avec les données se produit aux points d’intégration des données. On s’est trop concentré sur la sélection de plates-formes de données en fonction des spécifications et des mécanismes technologiques pour l’ingestion de données et les bases de données, plutôt que sur la standardisation des technologies qui aident à générer des informations commerciales.

Les plates-formes de données et les architectures de données doivent être conçues dès le départ en mettant l’accent sur la création d’actifs de données analytiques de grande valeur et sur la génération de revenus, ainsi que sur la capacité de ces actifs de données à évoluer à mesure que les besoins de l’entreprise changent. Les technologies de données doivent réduire la complexité pour accélérer les informations commerciales. Les organisations doivent se concentrer sur les points d’intégration des données, car c’est là qu’elles gagnent avec les données. Une plate-forme cloud de données en temps réel performante doit rationaliser et standardiser les flux de données et leurs intégrations dans l’ensemble de l’écosystème de données.

En savoir plus sur DataStax ici.

À propos de George Trujillo :

George est stratège principal des données chez DataStax. Auparavant, il a constitué des équipes hautement performantes pour des initiatives axées sur la valeur des données dans des organisations telles que Charles Schwab, Overstock et VMware. George travaille avec des CDO et des responsables de données sur l’évolution continue des stratégies de données en temps réel pour leur écosystème de données d’entreprise.




Source link

novembre 29, 2022