Fermer

juillet 8, 2024

Améliorez la préparation à l’IA et réduisez les risques

Améliorez la préparation à l’IA et réduisez les risques


L’IA générative (GenAI) est à un point d’inflexion, prête à être utilisée à grande échelle par les entreprises et à générer des gains de productivité significatifs. Et les organisations sont impatientes d’y aller, prévoyant d’augmenter leurs dépenses GenAI de 2 à 5 fois cette année, selon la société de capital-risque Andreesen Horowitz.1

Le marché est à l’heure actuelle, avec les solutions des fournisseurs GenAI qui mettent le pouvoir de la recherche conversationnelle entre les mains des employés. La promesse est séduisante : elle prend un contenu qui a généralement été obscurci et l’expose à l’IA pour transformer les informations en réponses.

Il y a juste un problème : la promesse n’est pas toujours la réalité. De nombreux outils GenAI peuvent créer plus de bruit et moins de pertinence pour les utilisateurs, ce qui peut conduire à de mauvaises réponses, à de mauvaises décisions et à une perte de confiance des employés. Potentiellement encore plus préoccupant, sans être entièrement prêt pour l’IA, le contenu sensible de l’entreprise est exposé, ouvrant la porte à des risques organisationnels.

Craignez-vous que vos investissements GenAI ne s’effondrent ? Explorons quelques failles courantes en matière de sécurité des informations et comment Gestion de contenu GenAI peut aider.

Le partage excessif peut être écrasant

Imaginez qu’un employé utilise GenAI pour demander : « Est-ce que je serai viré demain ? À la grande surprise de l’individu, la réponse à la question fait référence à une liste interne d’employés compilée par les RH et la direction, cachée de la vue quotidienne mais pas hors de portée de l’IA.

Le partage et la co-édition sont devenus une pratique de collaboration standard. Le paramètre de partage par défaut dans la plupart des suites de productivité Office consiste à fournir un accès en lecture ou en écriture à toute personne ayant accès au lien. Le problème est…. GenAI a accès au lien. Cela signifie que toute personne dans l’organisation utilisant GenAI a également accès au contenu du document si elle pose la bonne question. Ce problème a été classé comme « partage excessif » et concerne les organisations qui adoptent des solutions d’IA pour leurs suites de productivité Office.

Fissures dans la gestion des autorisations

De nombreux outils GenAI révèlent des lacunes dans la gestion des autorisations d’entreprise, ne parvenant pas à filtrer les réponses lorsque le contenu sensible a été masqué au lieu d’être correctement autorisé. Sans l’application correcte des groupes d’autorisations et l’utilisation des capacités du système au sein de l’outil d’IA lui-même, les employés obtiennent un accès trop important, violant les politiques de confidentialité et pouvant conduire à des incidents de sécurité des informations.

De nombreux outils GenAI supposent également que les organisations ont atteint un haut niveau de maturité en matière d’étiquetage, de classification et de surveillance du contenu. Sans la capacité de conserver des informations pertinentes pour des départements, des projets et des cas d’utilisation spécifiques, ces outils fournissent un accès et des informations bien au-delà du statut souhaité de « besoin de savoir », générant des réponses trop générales ou trop larges plutôt que de limiter les résultats à un petit sous-ensemble d’informations à apporter les réponses les plus pertinentes et les plus utiles.

Lorsque les employés effectuent une requête rapide via des applications d’IA grand public accessibles au public, les risques l’emportent sur la récompense. Les organisations ont peu de visibilité ou de contrôle sur la manière dont les informations sont utilisées ou distribuées, un seul faux pas d’un employé mettant l’entreprise en danger, comme la saisie d’informations sensibles entraînant une perte de propriété intellectuelle ou la citation de fausses sources ayant des conséquences juridiques.

Éliminez les raccourcis GenAI pour créer de la valeur à grande échelle

Les organisations en sont à différents stades d’expérimentation de GenAI, mais ont désormais dépassé le stade de l’engouement. Une enquête de Deloitte a révélé que 47 % des organisations adoptent rapidement GenAI, et pour les entreprises possédant une très grande expertise, ce chiffre grimpe à 73 %.2

Il est temps pour les organisations de prendre du recul et d’identifier les raccourcis GenAI qui conduisent à des failles en matière de sécurité des informations. Avec une bonne base de gestion de l’information, les entreprises peuvent trouver un équilibre idéal, en obtenant le contrôle souhaité tout en garantissant que les employés voient les bonnes informations (et rien de plus !), en évitant le bruit, en atténuant les risques et en maximisant la valeur.

La création de modèles et la structuration des informations constituent le point de départ pour la préparation à l’IA et la sécurisation de GenAI. Avec les espaces de travail professionnels OpenText, le contenu est organisé entre les applications métiers et les processus métiers, en appliquant des autorisations pour la protection des informations, en classant le contenu pour permettre à l’IA d’interroger et de capturer plus facilement des données commerciales précises pour des réponses GenAI précieuses et plus pertinentes.

Étant donné que les informations sont contextualisées dans un processus métier, ce contexte indique qui doit et ne doit pas voir les informations. De plus, grâce à des métadonnées détaillées, les espaces de travail professionnels affinent les informations alimentant l’IA et structurent les informations via des dossiers modèles (pour certaines transactions ou cas commerciaux), permettant aux employés de comprendre facilement ce qu’ils interrogent.

De plus, pour aider à consolider GenAI, il est également important de :

  • Effectuez régulièrement des audits ponctuels et des contrôles d’autorisations : Lors de la mise en œuvre d’applications d’IA, effectuez des examens d’assurance qualité et de tests pour garantir que les informations provenant des outils GenAI sont correctement autorisées.
  • Comprenez votre tolérance au risque : Déterminez comment appliquer les autorisations et la sécurité souhaitées sans sacrifier la collaboration souhaitée, en évaluant comment la gestion des informations peut améliorer la productivité.
  • Travaillez avec un fournisseur d’IA responsable : Tous les outils GenAI n’ont pas été créés égaux. Chez OpenText, nous croyons profondément aux pratiques éthiques, aux résultats et à la responsabilité, ce qui conduit à la création de notre Déclaration des obligations de l’IA. Nous sommes également le premier signataire de l’accord Code de conduite volontaire sur le développement et la gestion responsables des systèmes avancés d’IA générative.

Grâce à GenAI conversationnel, les organisations peuvent interagir avec de grands volumes d’informations pour accélérer l’apprentissage et aider les employés à travailler plus intelligemment et plus rapidement. Mais GenAI n’en est qu’à ses débuts et se dirige vers des gains de productivité à grande échelle et façonne l’avenir de l’innovation.

Aviateur de contenu OpenText™un assistant de contenu basé sur l’IA, rassemble les documents les plus pertinents d’un espace de travail professionnel à des fins d’analyse, filtre automatiquement les documents et fournit des informations et des résumés contextuels basés uniquement sur le contenu autorisé afin d’éviter les fuites et le partage excessif d’informations.

Le moment est venu de renforcer la préparation de votre entreprise à l’IA grâce à la gestion de contenu GenAI.

Démo interactive d’OpenText™ Content Aviator

Travaillez plus intelligemment avec un assistant intelligent alimenté par GenAI

S’inscrire maintenant

[1] Marketing AI Institute, Les entreprises s’apprêtent à augmenter leurs dépenses en IA générative, mars 2024

[2] Deloitte AI Institute, État de l’IA générative dans l’entreprise, avril 2024




Source link