Fermer

novembre 28, 2023

8 conseils pour libérer la puissance des données non structurées

8 conseils pour libérer la puissance des données non structurées



Le cloud Workhuman contient des millions de messages de reconnaissance d’employés du monde entier, partageant des commentaires positifs sur une personne avec qui ils travaillent.

« Ils le font avec leurs propres mots, donc chaque moment de reconnaissance est complètement unique », explique Harriott. « Nous utilisons ces données pour alimenter des modèles d’IA qui aident les entreprises à mieux définir la manière dont les employés collaborent au sein de leur organisation, les sujets qui reviennent le plus fréquemment dans les messages et l’équité dans les récompenses de reconnaissance au sein de l’organisation.

La société utilise également des modèles de langage étendus (LLM) pour résumer les tendances de reconnaissance au fil du temps et suggérer un langage pour un message de reconnaissance efficace.

« Une initiative dont je suis particulièrement fier est notre outil Inclusion Advisor, un outil de coaching instantané basé sur l’IA qui identifie et suggère des corrections pour les préjugés inconscients dans le langage de la récompense avant qu’elle ne soit envoyée au lauréat », a déclaré Harriott.

L’un des plus grands défis pour tirer de la valeur des données non structurées est l’accès limité à des données de formation fiables et valides pour les cas d’utilisation métier sur lesquels l’organisation se concentre.

« Vous pouvez disposer de grandes quantités de données non structurées, mais sans données de formation efficaces pour créer et valider un modèle, les progrès et la qualité en souffriront », explique Harriott. « Tirer parti des LLM peut certainement aider à cet égard, mais de nombreux cas d’utilisation commerciale ne sont pas efficacement capturés par les LLM existants. »

De plus, « dans un LLM, il peut toujours y avoir un problème de biais dans les données de formation », explique Harriott. Workhuman dispose d’une équipe linguistique responsable de l’annotation, de l’augmentation et de la validation des données pour résoudre certains de ces problèmes. « Nous travaillons également en partenariat avec nos grands clients multinationaux pour nous assurer que les modèles produisent des résultats significatifs et utiles », explique Harriott.

Conseils pour transformer des données non structurées en valeur

Harriott, Konoval et d’autres experts en données offrent des conseils sur la manière de garantir le succès lorsque vous travaillez avec des données non structurées.

1. Liez les initiatives aux résultats commerciaux. Les responsables informatiques doivent s’assurer que les initiatives visant à exploiter les données non structurées sont étroitement alignées sur les besoins de l’entreprise et bénéficient du parrainage de la direction, explique Harriott.

« Trop souvent, une équipe peut avoir un cas d’utilisation créatif de données non structurées, mais le lien avec un résultat commercial clé n’est pas évident pour les autres et peut perdre son soutien », explique Harriott. « Il est de la responsabilité du dirigeant d’éduquer l’organisation sur les raisons pour lesquelles le cas d’utilisation est important et sur la manière dont il peut directement ou indirectement générer des avantages commerciaux. »

2. Reconnaissez le voyage. En outre, les responsables des données doivent définir et célébrer les jalons de l’initiative au fur et à mesure qu’ils sont atteints, en particulier compte tenu de la difficulté de créer de la valeur avec des données non structurées.

« Rendre les données non structurées exploitables peut nécessiter plus de temps et d’efforts que ce à quoi l’entreprise s’attend », explique Harriott. « En reconnaissant les jalons, les dirigeants donnent aux autres parties prenantes une visibilité sur les progrès réalisés et s’assurent également que les membres de leur équipe se sentent appréciés pour le niveau d’effort qu’ils déploient pour rendre les données non structurées exploitables. »

3. La qualité est la première tâche. Une autre clé du succès est de donner la priorité à la qualité des données.

« L’adage « les déchets entrent, les déchets sortent » ne pourrait pas être plus approprié », déclare Konoval. « Se lancer dans l’analyse sans garantir la qualité des données peut s’avérer contre-productif. Nous avons toujours adopté cette approche : nettoyer les données, supprimer ce qui est inutile et garantir qu’elles répondent aux normes de qualité.

Dans l’industrie du jeu vidéo, « des décisions mal informées peuvent entraîner des développements de fonctionnalités coûteux qui pourraient ne pas plaire aux joueurs, ou pire encore, des bugs qui pourraient ternir notre réputation », explique Konoval. « Notre cadre rigoureux de gouvernance des données garantit que la base de nos analyses est solide comme le roc. »

4. Séparez ce qui est exploitable de ce qui est informatif. Il est également essentiel de donner la priorité aux données sur lesquelles les utilisateurs professionnels peuvent agir. « Ce qui est important, c’est le volume de données et la capacité d’analyser ce qui est exploitable par rapport à ce qui est informatif », explique Joe Minarik, COO chez DataBank, fournisseur de services de colocation et de données.

Pour souligner l’importance de cela, Minarik donne l’exemple de l’utilisation de données non structurées pour la surveillance des systèmes. « Les aspects réalisables doivent être priorisés et traités rapidement », dit-il. « Étant donné que de nombreux aspects des systèmes sont surveillés, un seul problème peut générer des alarmes et des informations provenant des appareils en aval, provoquant une surabondance d’alertes, d’alarmes et d’informations qui doivent être examinées pour identifier quel aspect unique doit réellement être traité.

5. Utilisez largement l’IA. Poursuivant son exemple, Minarik souligne le rôle précieux que jouent l’IA et l’apprentissage automatique dans l’analyse des flux de données non structurés au fil du temps. «Cela vous aide à établir une corrélation entre les systèmes», dit-il. « Cela vous permet de supprimer le bruit et d’accéder immédiatement à la racine du problème. »

Par exemple, les organisations peuvent déployer la reconnaissance d’entités nommées (NER), un composant du traitement du langage naturel (NLP) qui se concentre sur l’identification et la catégorisation des entités nommées dans un texte non structuré, avec des balises telles que « personne », « organisation » ou « emplacement ». »

« Concrètement, la reconnaissance d’entités joue un rôle crucial dans une multitude d’applications », explique Minarik. Il s’agit notamment de systèmes de recherche d’informations qui indexent et organisent le contenu, de systèmes de questions-réponses qui localisent les réponses dans le texte et de moteurs de recommandation de contenu qui personnalisent le contenu en fonction d’entités reconnues.

« En identifiant et en catégorisant les entités nommées, NER permet aux analystes de données et aux ingénieurs système de débloquer des informations précieuses à partir des vastes données collectées », explique Minarik.

6. Garantissez la valeur avec des visualisations. Le processus visant à rendre utilisables les données non structurées ne s’arrête pas à l’analyse, explique Minarik. Elle aboutit au reporting et à la communication des résultats.

« Les rapports impliquent généralement une présentation structurée des principales conclusions, méthodologies et implications de l’analyse », explique Minarik. « Les visualisations, telles que les diagrammes, les graphiques et les tableaux de bord, jouent un rôle déterminant dans la transmission de données complexes dans un format compréhensible. Les représentations visuelles facilitent non seulement la compréhension, mais permettent également aux parties prenantes d’identifier plus facilement les tendances, les valeurs aberrantes et les informations critiques, garantissant ainsi que des décisions opportunes basées sur des données sont prises.

7. Surveillez au fur et à mesure. Une autre pratique clé parfois négligée est la nécessité d’une surveillance et d’une maintenance continues, explique Minarik. « Les données réelles sont dynamiques et en constante évolution », dit-il. « Une surveillance et une maintenance continues sont essentielles pour garantir que les données restent utilisables au fil du temps. »

La clé pour y parvenir est de nettoyer et d’effectuer régulièrement des contrôles de qualité pour maintenir l’exactitude et la fiabilité des données, explique Minarik. Les anomalies, incohérences et doublons dans les données doivent être identifiés et corrigés rapidement pour éviter des analyses faussées ou erronées.

8. Maintenez les compétences de votre équipe à jour. Enfin, c’est une bonne pratique d’investir dans le développement des compétences appropriées – un effort qui, compte tenu de l’évolution constante des outils sous-jacents, doit être continu.

« Le monde de l’analyse de données, en particulier celui des données non structurées, est dynamique », explique Konoval. « Le plus petit avantage, comme une équipe compétente dans les dernières technologies de reconnaissance d’images et dans l’analyse des concepts artistiques, peut faire la différence entre un jeu qui est un succès ou un échec. Nous avons déjà vu comment les résultats de la technologie avancée ont eu un impact sur la narration et la conception de nos jeux, entraînant des retours positifs et un engagement accru des joueurs.




Source link

novembre 28, 2023