Créer de la valeur avec une stratégie de données décentralisée

Pendant des décennies, les organisations ont poursuivi le Saint Graal d'une stratégie centralisée d'entrepôt de données/lac pour prendre en charge l'intelligence d'affaires et l'analyse avancée. Aujourd'hui, avec la puissance de traitement intégrée à la périphérie et la demande croissante d'informations en temps réel, les organisations utilisent des stratégies de données décentralisées pour générer de la valeur et obtenir des résultats commerciaux.
La prolifération des données à la périphérie s'accélère, que ces données soient collectées à partir d'une interaction client dans un magasin de détail, d'une transaction par téléphone mobile ou d'un équipement industriel dans l'usine. Une connectivité améliorée, y compris une disponibilité accrue des capacités 5G, associée à une puissance de traitement de périphérie économique, entraîne le déluge de données qui existe en dehors des référentiels centralisés et des centres de données traditionnels.
SelonEstimations IDC , il y aura 55,7 milliards d'appareils connectés à l'Internet des objets (IoT) d'ici 2025, générant près de 80 milliards de zettaoctets de données à la périphérie. En même temps,IDCprojets, les dépenses mondiales en informatique de pointe atteindront 176 milliards de dollars en 2022, soit une augmentation de 14,8 % par rapport à 2021.
Mais pour recueillir des informations basées sur les données, il ne s'agit pas de capturer et d'analyser des données à partir d'un seul emplacement périphérique. Imaginez que vous collectez des données auprès de milliers de magasins de détail ou que vous traitiez des données provenant de voitures connectées. Chacun implique des défis dans la collecte, le stockage, la gestion et l'analyse des données d'une manière évolutive et offrant une réelle valeur commerciale à partir d'informations spécifiques et exploitables.
"L'intelligence poussée à la périphérie consiste à conduire un point de décision – convaincre quelqu'un d'acheter quelque chose ou de fournir une expérience client à ce moment-là", explique Matt Maccaux, directeur de la technologie sur le terrain pour le groupe HPE GreenLake Cloud Services. « Penser à cette intelligence comme ayant des millions de points de décision faiblement connectés à la périphérie nécessite une stratégie différente, et vous ne pouvez pas la microgérer. Vous devez l'automatiser. Vous devez utiliser des algorithmes sophistiqués et l'apprentissage automatique pour prendre ces décisions à ces moments-là.
Cela ne veut pas dire qu'une stratégie de données décentralisée remplace entièrement l'initiative de données centralisée plus traditionnelle – Maccaux souligne qu'il y a un besoin pour les deux. Par exemple, de nombreuses données sont centralisées par défaut ou doivent le rester pour des raisons de conformité et de réglementation. De plus, pour certaines charges de travail d'intelligence artificielle (IA) et d'apprentissage automatique (ML), une stratégie centralisée est logique ; cela peut être un moyen plus efficace de stocker et de traiter tout le spectre des données nécessaires pour rendre la périphérie plus intelligente afin de générer des informations exploitables.
"Une stratégie de données centralisée est vraiment efficace pour créer ces modèles sophistiqués par rapport à des ensembles de données volumineux… et pour rendre la périphérie plus intelligente ou lorsque la latence n'est pas un problème", déclare Maccaux. "Les entreprises modernes doivent adopter une double stratégie."
Défis d'un parc de données d'entreprise distribué
Le plus grand défi d'une stratégie de données décentralisée est la gestion des données sur le grand nombre de points de terminaison décentralisés ou basés sur la périphérie. Par exemple, un seul magasin de détail peut coder et consommer des données en utilisant la main-d'œuvre humaine, mais à mesure que cet environnement s'étend à des dizaines, des centaines, des milliers ou même des millions de points connectés, cet ordre de grandeur d'échelle et de croissance devient intimidant.
Il est également probable que tous ces environnements périphériques individuels traitent les données différemment pour s'adapter à différents cas d'utilisation et à différents facteurs environnementaux et démographiques. Permettre l'évolutivité et la flexibilité sans configurations uniques nécessite une automatisation. "Nous devons être capables de gérer cette échelle massive – c'est le défi lorsqu'il s'agit d'intelligence décentralisée", déclare Maccaux.
Bien que la connectivité et la puissance de traitement aient considérablement augmenté à la périphérie, elles ne sont toujours pas aussi puissantes et rapides que la plupart des environnements de centres de données. Les organisations informatiques doivent donc passer du temps à réfléchir aux applications, au déplacement des données et au traitement algorithmique, en fonction de l'empreinte et de la connectivité disponibles à la périphérie. De plus, les requêtes et les analyses distribuées sont très complexes et souvent fragiles, ce qui peut rendre difficile l'identification et la disponibilité des bonnes données pour générer des informations et des actions.
Lors de l'élaboration d'une stratégie de données décentralisée, Maccaux recommande ce qui suit :
- Architecte pour l'échellepour votre niveau de croissance d'ordre de grandeur depuis le début si vous voulez évoluer correctement sans avoir à refactoriser constamment.
- Savoir ce qui est pratique et ce qui est possibleen termes de connectivité et d'autres facteurs lors de la conception d'emplacements en périphérie.
- Tirez parti d'une structure de données pour soutenir une stratégie de données unifiée, ce qui facilitera les déploiements et la maintenance. "Cela va favoriser la conformité, assurer la gouvernance et augmenter la productivité, quels que soient les outils utilisés par ces utilisateurs d'analyses distribuées."
L'avantage HPE GreenLake pour la stratégie de données distribuées
Les utilisateurs s'appuyant sur différentes sources de données et outils, les organisations ont du mal à maintenir la synchronisation des données entre tous les points périphériques tout en respectant la souveraineté des données, la gouvernance des données et les exigences réglementaires. La structure de données HPE Ezmeral, fournie via la plate-forme HPE GreenLake edge-to-cloud, unifie et synchronise le mouvement des données à l'échelle mondiale. Il fournit un accès basé sur des politiques aux équipes d'analyse et aux scientifiques des données, que les données se trouvent à la périphérie, dans un entrepôt de données d'entreprise, sur site ou dans un lac de données cloud.
HPE Ezmeral Unified Analytics et HPE Ezmeral ML Ops, également disponibles en tant que services cloud via HPE GreenLake, fournissent des analyses hybrides unifiées qui peuvent gérer la diversité des types de données et s'étendent de la périphérie au cloud hybride, ainsi qu'une automatisation pour la création d'IA/de bout en bout. pipelines d'analyse. HPE GreenLake automatise le provisionnement de toutes ces instances et offre une visibilité sur les coûts et les contrôles du cloud, disponibles en tant que services axés sur les résultats exécutoires via un accord de niveau de service (SLA). « La structure de données est la technologie qui le permet, mais HPE GreenLake est le mécanisme de livraison permettant d'atteindre les résultats commerciaux escomptés », déclare Maccaux. "Nous automatisons tout le chemin vers le haut de la pile pour nous assurer que nous respectons les SLA commerciaux."
Cliquez icipour en savoir plus sur HPE GreenLake.
Source link