Site icon Blog ARC Optimizer

Comment les PME peuvent extraire une plus grande valeur de leurs données


À mesure que les petites et moyennes entreprises arrivent à maturité avec leurs capacités Big Data elles ont de plus en plus de mal à extraire de la valeur de leurs données pour deux raisons principales:

  • Immaturité organisationnelle en ce qui concerne la gestion du changement. , sur la base des conclusions de la science des données.
  • Limitations d’évolutivité ralentissant l’efficacité de l’équipe chargée de la science des données.

Cette situation est décevante car les premiers prototypes encourageants ne tiennent pas leurs promesses. Il existe cinq facteurs clés pour aider les entreprises en croissance à capitaliser plus rapidement sur la valeur de leurs données. Les entreprises qui souhaitent tirer parti de leurs premiers succès en science des données doivent adopter ces cinq moteurs.

Consolidation des données en un seul lac de données pour éviter toute prolifération des données

À mesure que les entreprises évoluent vers la maturité du Big Data, le déploiement de Hadoop et d'autres technologies Big Data jaillir le long du chemin. L'approche décentralisée initiale permet une adoption plus rapide, mais aboutit à la création de silos de données et de technologies. Cela devient un problème, car les données sont souvent dupliquées au cours des déploiements, ce qui entraîne des problèmes de conformité et un coût de maintenance global plus élevé. En outre, le fait de disposer de plusieurs systèmes qui n'interagissent pas correctement peut entraver et décourager les analyses par les experts en données et augmenter la courbe d'apprentissage pour ceux qui cherchent à analyser leurs données. Plus important encore, il est presque impossible de fournir de la visibilité via des rapports et des analyses sur ces silos, ce qui empêche la direction d'avoir une image claire de l'entreprise. Les clients qui ont réussi ont trouvé un avantage considérable dans la consolidation des données dans un seul lac.

Fournir aux utilisateurs le niveau approprié d'accès aux données

Pour les entreprises qui ont consolidé leurs données dans un lac centralisé, le prochain défi consiste à fournir le bon niveau. d'accès aux données. Pour que les scientifiques de données puissent effectuer des analyses avancées, ils ont besoin de quelques éléments: accès à de grandes quantités de données, capacité de compléter les données existantes avec des sources de données externes et de modéliser les données à l'aide d'outils et de bibliothèques de pointe. C’est souvent le contraire de ce que les administrateurs informatiques soucieux de prendre en compte du risque veulent offrir, ce qui entraîne une perte de productivité pour les scientifiques. La sécurité des données est une considération importante, en particulier pour les clients des services financiers ou de la santé. Mais la politique informatique exige un équilibre entre sécurité et stabilité. Les clients qui réussissent ont souvent contourné ce problème en proposant des bacs à sable analytiques, indépendants du système de production, à la communauté de la science des données. Cela leur permet d'expérimenter et de parcourir librement leur travail. Cela reporte également les questions complexes relatives aux autorisations à un stade ultérieur, après que la valeur commerciale puisse être établie de manière plus tangible afin que les gestionnaires puissent prendre des décisions commerciales plus éclairées.

Recherchez un équilibre entre gouvernance et liberté

Pour certaines entreprises, des restrictions sont imposées. pas le problème – en fait, c'est le contraire. Dans ce cas, les administrateurs informatiques rappellent les restrictions sur le lac de données et autorisent un accès gratuit pour les utilisateurs. Cela peut sembler idéal pour certains utilisateurs, mais lorsque des requêtes coûteuses engloutissent toutes les ressources informatiques ou que les données sont corrompues, tout le monde sur le système en souffre. Sans gouvernance et structure, les lacs de données deviennent rapidement des marécages de données inhabitables avec des lagunes de tables non prises en charge. L'essentiel est de trouver le juste équilibre entre donner aux utilisateurs la liberté d'utiliser certains outils et la possibilité d'expérimenter tout en offrant une qualité de service cohérente à l'environnement opérationnel.

Alignez les initiatives de données sur les objectifs de l'entreprise

Les déploiements de données, beaucoup trop d'entreprises agissent rapidement pour établir des plates-formes de données et faire des choix technologiques sans tenir compte de la stratégie commerciale en cours de route. Cette mentalité de "si nous la construisons, ils viendront" peut sembler innocente au départ – après tout, à quel point cela peut-il être préjudiciable de construire un lac de données? Il s'avère que si les choix technologiques et les processus métier sont mis en place sans comprendre comment l'entreprise tirera parti du système sous-jacent, il y a de fortes chances pour que la plate-forme déployée ne réponde pas aux besoins de l'entreprise et soit mise au rebut. faveur de quelque chose d'autre. Sur le papier, la solution à ce problème est simple: le service informatique et l'entreprise doivent collaborer et travailler ensemble pour définir les exigences du système avant la mise en œuvre. En pratique, c'est souvent la chose la plus difficile à faire et requiert de la persistance et un leadership fort des deux côtés pour réunir les parties.

Créer une infrastructure de données capable de s'adapter à l'échelle

– et-vrai guidage du déploiement sur une infrastructure de base, de base. C’est bien, jusqu’à ce que ce ne soit pas. Une fois que ces déploiements ont atteint des dizaines de serveurs et des centaines de téraoctets de données avec des dizaines d’utilisateurs analytiques, l’approvisionnement en sandbox devient un travail à plein temps, ce qui ne devrait pas être le cas. Deux choses peuvent aider à rationaliser ce processus:

  • Conteneurisez les environnements de calcul de sorte que les nouvelles sandbox puissent être déployées d'un simple clic sur un bouton.
  • Découplez le stockage de données de l'environnement de calcul et fournissez un accès en lecture seule à partir des sandbox conteneurisées.

Il existe d’autres outils qui peuvent fournir des solutions de contournement. Cela donne aux analystes une flexibilité et un accès facile aux données intègres, tout en permettant une évolutivité indépendante du calcul à partir des niveaux de stockage. Le résultat est un coût total de possession plus bas et une maintenance globale plus facile.

À mesure que les efforts en matière de données des petites et moyennes entreprises arrivent à maturité, de nombreux nouveaux obstacles rencontrés par les entreprises en matière de prototypage des initiatives Big Data se posent. Ceci est parfaitement naturel et un signe de croissance sain. Mais en se concentrant sur ces cinq moteurs, les entreprises peuvent commencer à réaliser les succès des pilotes Big Data et à générer un succès à long terme avec des données.

Il est essentiel de maîtriser les données pour obtenir et conserver un avantage concurrentiel, C'est pourquoi vous devez Quitter l'habitude du data silo: une intervention pour les entreprises en croissance .




Source link
Quitter la version mobile