Chaque jour, des organisations de toutes sortes sont inondées de données provenant de diverses sources, et tenter de donner un sens à tout cela peut être écrasant. Donc un fort intelligence économique (BI) La stratégie peut aider à organiser le flux et garantir que les utilisateurs professionnels ont accès à des informations commerciales exploitables.
« D’ici 2025, on estime que 463 millions de téraoctets de données seront créés chaque jour », déclare Lisa Thee, responsable des données pour le bon secteur chez Launch Consulting Group à Seattle. « Pour que les entreprises restent en contact avec le marché, soient réactives et créent des produits qui se connectent avec les consommateurs, il est important d’exploiter les informations qui ressortent de ces informations. »
Les logiciels de BI aident les entreprises à faire exactement cela en guidant les bonnes données dans des rapports analytiques et des visualisations afin que les utilisateurs puissent prendre des décisions éclairées. Mais sans la bonne approche pour mettre en œuvre ces outils, les organisations sont toujours confrontées à des problèmes pour maximiser la valeur et atteindre leurs objectifs commerciaux.
Voici six défis courants en matière de BI auxquels les entreprises sont confrontées et comment l’informatique peut les résoudre.
1. Faibles taux d’adoption par les utilisateurs
Diana Stout, analyste commerciale senior, Schellman
Schellman
Il est essentiel pour les organisations qui souhaitent profiter des avantages des outils de BI d’obtenir immédiatement l’adhésion de toutes les parties prenantes, car toute réticence initiale peut entraîner de faibles taux d’adoption.
« Le problème numéro un pour notre équipe BI est de convaincre les gens que l’intelligence d’affaires aidera à prendre de véritables décisions basées sur les données », déclare Diana Stout, analyste commerciale senior chez Schellman, un évaluateur mondial de la cybersécurité basé à Tampa, en Floride.
Pour gagner l’adhésion des employés, l’équipe de Stout crée des tableaux de bord BI pour leur montrer comment ils peuvent facilement se connecter et interagir avec leurs données, ainsi que les visualiser de manière significative.
« Par exemple, supposons qu’une partie prenante pense qu’une certaine gamme de produits est la plus rentable », dit-elle. « Je peux construire un tableau de bord et leur montrer l’intelligence qui prouve que ce qu’ils pensent est correct, ou je peux leur prouver qu’ils ont tort et leur montrer pourquoi. »
Cela permet aux utilisateurs de voir la valeur de l’adoption d’outils de BI, selon Stout.
2. Déterminer quelle méthode de livraison BI convient le mieux
Il existe de nombreuses façons traditionnelles gérées par l’informatique de fournir des rapports et des informations à partir des données. Mais en utilisant des outils de BI en libre-service, avec des tableaux de bord et des interfaces utilisateur plus intuitifs, les entreprises peuvent rationaliser leurs processus en permettant aux responsables et autres membres du personnel non technique de mieux gérer les rapports et, par conséquent, de tirer une valeur commerciale accrue des données.
Axel Goris, responsable mondial de l’analyse visuelle, Novartis
Novartis
Cependant, il peut y avoir des obstacles à l’adoption de l’approche en libre-service. Avoir trop d’accès dans de nombreux départements, par exemple, peut entraîner une cuisine pleine de cuisiniers inexpérimentés qui augmente les coûts et expose l’entreprise à des problèmes de sécurité des données. Et voulez-vous que votre équipe de vente prenne des décisions en fonction des données qu’elle obtient et ait l’autonomie de mélanger et assortir pour voir ce qui fonctionne le mieux ? Un contrôle centralisé et standardisé du déploiement des outils est essentiel. Et pour le faire correctement, le service informatique doit bien gérer les données.
En raison de ces compromis, les organisations doivent s’assurer qu’elles sélectionnent l’approche BI la mieux adaptée à l’application métier à portée de main.
« Nous avons plus de 100 000 associés en plus des externes qui travaillent pour nous, et c’est un groupe d’utilisateurs assez important à servir », déclare Axel Goris, responsable mondial de l’analyse visuelle chez Novartis, la multinationale pharmaceutique basée à Bâle, en Suisse. « Un défi clé était l’organisation autour de la livraison – comment organisez-vous la livraison, car une société pharmaceutique est très réglementée. »
Un modèle de prestation de BI géré par l’informatique, explique Goris, nécessite beaucoup d’efforts et de processus, ce qui ne fonctionnerait pas pour certaines parties de l’entreprise.
« C’est parce qu’ils pensent que c’est trop complexe ; il y a trop de frais généraux, et ils veulent aller plus vite et être plus agiles », explique Goris. « Et si l’informatique est le lieu de livraison par excellence, alors l’informatique devient un goulot d’étranglement car nous ne sommes pas assez grands pour effectuer la livraison pour tout le monde. »
Pour relever ce défi, Novartis a mis en œuvre les deux types de livraison : la méthode gérée par l’informatique et l’approche en libre-service gérée par l’entreprise.
« Avec la livraison gérée par l’entreprise, nous fournissons les plates-formes et les outils, et permettons à l’entreprise, dans certains paramètres, d’agir seule, d’utiliser ses fournisseurs préférés, ou pour les équipes de le faire elles-mêmes, et c’est très populaire », dit-il, ajoutant que tout revient à déterminer « comment nous pouvons servir tout le monde dans l’entreprise ou permettre aux utilisateurs BI de se servir eux-mêmes d’une manière évolutive ».
3. Intégrer ou non des données
Alors que les organisations doivent intégrer des données provenant de diverses sources de données à la fois sur site et dans le cloud – ce qui peut être un processus long et compliqué – la demande de simplification du processus de configuration augmente. Mais beaucoup trouvent d’autres solutions. Lionel LLC, par exemple, le concepteur et importateur américain de trains miniatures et de trains miniatures basé à Concord, en Caroline du Nord, utilise son ERP comme système d’enregistrement, selon le CIO Rick Gemereth.
Rick Gemereth, CIO, Lionel LLC
Lionel LLC
« Notre source de données unique est NetSuite, et nous avons tout notre ERP, notre e-commerce, basé sur NetSuite », dit-il. « Et l’un des avantages de cela est que nous n’avons pas le défi d’essayer de marier des données provenant de différentes sources. » Pourtant, ce qui fonctionne pour Lionel pourrait ne pas fonctionner ailleurs. Le défi consiste à trouver la solution qui convient le mieux à votre situation particulière.
Stout, par exemple, explique comment Schellman aborde l’intégration de sa gestion de la relation client (CRM) et de ses données financières.
« Beaucoup de logiciels de business intelligence tirent d’un entrepôt de données où vous chargez toutes les tables de données qui sont le back-end des différents logiciels », dit-elle. « Ou vous avez un [BI tool] comme Domo, utilisé par Schellman, qui peut fonctionner comme un entrepôt de données. Vous pouvez vous connecter au logiciel et il le tirera dans une table. Ensuite, vous avez toutes ces tables au même endroit afin que vous puissiez saisir les informations et les manipuler. »
Jim Hare, éminent vice-président et analyste chez Gartner, déclare que certaines personnes pensent qu’elles doivent prendre toutes les données cloisonnées dans les systèmes de diverses unités commerciales et les vider dans un lac de données.
« Mais ce qu’ils doivent vraiment faire, c’est repenser fondamentalement la façon dont les données sont gérées et accessibles », dit-il. « Ce sur quoi Gartner écrit, c’est le concept de data fabric. »
Défini comme un catalyseur d’accès sans friction au partage de données dans un environnement de données distribuées, Data Fabric vise à aider les entreprises à accéder, intégrer et gérer leurs données, quel que soit l’endroit où ces données sont stockées à l’aide de graphes de connaissances sémantiques, de la gestion active des métadonnées et de l’apprentissage automatique intégré. . « La structure de données permet aux données de résider dans différents types de référentiels dans le cloud ou sur site », explique Hare. « Il s’agit de pouvoir trouver des données pertinentes et de les connecter via un graphe de connaissances. Et la clé de tout cela est la gestion des métadonnées.
4. Permettre au parfait d’être l’ennemi du bien
La sagesse conventionnelle dit que les entreprises doivent travailler avec des données de haute qualité pour glaner les informations nécessaires pour prendre les meilleures décisions commerciales. Mais ce n’est pas tout à fait exact, déclare Nicole Miara, responsable de la transformation numérique chez LKQ Europe GmbH, une filiale de LKQ Corp. et un important distributeur de pièces de rechange automobiles basé à Zoug, en Suisse.
Ce n’est pas parce que vous pensez que les données ne sont pas de la plus haute qualité qu’elles n’ont pas de valeur.
Nicole Miara, responsable de la transformation numérique, LKQ Europe GmbH
LKQ Europe GmbH
Lorsqu’il s’agit de prendre des décisions, le désir d’une entreprise d’obtenir des données parfaites peut ralentir ses efforts car elle passe du temps à en rassembler le plus possible, à corriger des données incomplètes ou à corriger des formats. Il est difficile d’avoir des données parfaites, mais il est possible pour les organisations de travailler avec et d’analyser des données imparfaites pour commencer à les traduire en informations commerciales, selon Miara. Elle cite comment avec Projet Zèbreun groupe de réflexion open source composé de chefs d’entreprise, d’universitaires et de technologues travaillant à l’amélioration de la chaîne d’approvisionnement, elle a pu utiliser des données imparfaites pour prendre de bonnes décisions commerciales et améliorer considérablement la chaîne d’approvisionnement.
« Les données n’ont pas besoin d’être parfaites pour commencer le voyage », dit-elle. « C’est une approche étape par étape. » De plus, ajoute-t-elle, vous ne pouvez pas faire de prédictions si vous ne disposez pas de la couche de données de base.
Par exemple, LKQ Europe essayait d’appliquer ses données, y compris les données de vente, pour améliorer les opérations de sa chaîne d’approvisionnement à la lumière des 35 mois de perturbations qu’elle a subies en raison de la pandémie. Cependant, la société ne disposait de données sur son historique de ventes que pendant environ 12 mois.
« Nous avons pris des données de facturation, et nous n’avions pas d’informations supplémentaires concernant nos ventes, nous avons donc pris ces données de ventes imparfaites et essayé de trouver des corrélations avec nos activités futures », explique Miara. « Mais nous voulions comprendre si nous pouvions améliorer nos prévisions pour prévoir la demande en nous basant uniquement sur ces données. Nous avons constaté que nos données imparfaites étaient très bien corrélées avec des signaux extérieurs, tels que l’inflation et l’indice de l’emploi, même si les données n’étaient pas parfaites.
5. Faire face à la résistance au changement
La gestion du changement a été la principale difficulté à laquelle Happy Feet International a dû faire face pour mettre en œuvre l’intelligence économique, déclare Nick Schwartz, directeur informatique de la société de revêtements de sol en vinyle et carrelage de luxe basée à Ringgold, en Géorgie.
Nick Schwartz, CIO, Happy Feet International
Happy Feet International
L’industrie des revêtements de sol est un bébé technologique et, en tant que tel, beaucoup de gens n’utilisent pas la technologie, selon Schwartz. En fait, lorsque Schwartz a rejoint l’entreprise il y a trois ans, les vendeurs n’utilisaient même pas le courrier électronique au quotidien, car ils étaient plus à l’aise pour faire des affaires par téléphone.
« Les gens ont l’habitude de faire les choses d’une certaine manière », dit-il. «Ils le font de cette façon depuis des années et ils demandent pourquoi vous essayez de le faire d’une manière différente. Nous devons donc leur simplifier au maximum l’expérience et organiser des sessions de formation plus longues.
6. Cohérence de la gouvernance des données
Les organisations doivent s’assurer qu’elles ont mûri gouvernance des données processus en place, y compris la gestion des données de référence ainsi que la gouvernance autour des métriques clés et des indicateurs de performance clés (KPI), déclare Justin Gillespie, principal et chef scientifique des données chez The Hackett Group, une société de conseil et de conseil en recherche.
« Nous entendons tous des histoires d’horreur », dit-il. « Chaque entreprise à qui je parle a le même problème en ce sens que les gens viennent aux réunions avec des numéros différents et passent toute la réunion à se disputer sur la façon dont tel ou tel a obtenu son numéro. Il est essentiel de disposer d’un ensemble centralisé d’indicateurs de performance clés et de mesures certifiés par l’organisation. »
La gouvernance, c’est aussi standardiser les outils et les plateformes, selon Gillespie. « Du point de vue des outils et des technologies, il s’agit rarement de ne pas avoir d’outils, il s’agit généralement d’avoir trop d’outils », dit-il. « Ainsi, les entreprises devraient standardiser un ensemble d’outils, puis créer une compétence autour de celui-ci. »
Source link