Une base sécurisée pour la gestion de contenu de l’IA

L’IA générative (Genai) transforme fondamentalement la façon dont les utilisateurs travaillent et interagissent avec les informations et la redéfinition de la productivité du lieu de travail. Bien que Genai facilite le fait que cela puisse paraître, il peut, sans planification minutieuse, gestion des politiques et automatisation, mettre votre organisation en danger. McKinsey & Company le met en évidence: «Comme de plus en plus d’organisations utilisent l’IA pour améliorer les opérations, elles risquent d’introduire par inadvertance de nouvelles menaces liées au cyber. Les mauvais acteurs utilisent également l’IA pour alimenter des cyberattaques plus sophistiquées.»[1]Alors, que pouvons-nous faire pour apporter la promesse de productivité du Genai sur le lieu de travail dans une stratégie d’intermédiaire défendable sans compromettre notre posture de cybersécurité?
Risques cachés d’une stratégie informatique qui néglige la gouvernance de l’IA
Lorsque vous présentez Genai à vos utilisateurs comme un outil, les employés peuvent être rapides à appliquer Genai à leur produit de travail quotidien et à la plupart des actifs d’information précieux. Soudain, les employés alimentent les données des clients sensibles, les documents propriétaires et les stratégies confidentielles dans des systèmes qui peuvent ne pas respecter vos politiques de sécurité soigneusement élaborées, ou pire, créez des risques de fuite de données en les retirant de votre pare-feu. Les solutions Genai locales peuvent devenir par inadvertance un super utilisateur, exposant des informations auxquelles l’utilisateur ne devrait jamais accéder – ou pire – en créant une porte dérobée pour un accès non autorisé.
Selon les «perspectives de l’industrie technologique de Deloitte», les problèmes de confiance entourant la confidentialité, la sécurité et la précision des données sont les plus importants obstacle à l’adoption de l’IA d’entreprise.2 Ce sont des signes d’avertissement que les clients peuvent manquer des éléments clés d’une stratégie d’IA sûre, sécurisée et défendable.
La grande IA commence par une excellente gestion de contenu
Un excellent programme de gestion de contenu qui intègre une politique reproductible, une sécurité de contenu intégrée, une automatisation, une intégration et une gouvernance de l’information dans un système étroitement orchestré configuré pour vous aider à rester conforme et sûr. Lorsque vous avez une telle capacité comme fondation, ainsi qu’une capacité Genai à couplage serré, vous êtes en bonne voie pour fournir une IA sécurisée à chaque utilisateur qui ne vous tiendra pas debout la nuit.
Éléments d’une stratégie d’IA sécurisée
Chez OpenText, nous pensons que Genai n’a pas besoin d’être difficile ou de présenter un mal de tête géant de cybersécurité qui est difficile à planifier ou à gérer. Générer le droit Genai commence par quelques éléments de commentaires:
- Excellente gestion de contenu. La grande IA commence par une excellente gestion de contenu qui intègre l’organisation et l’étiquetage de vos données non structurées, le rôle et la sécurité fondée sur les politiques, la gouvernance de l’information, intégration avec d’autres processus et applicationset est géré de manière centrale via un espace de travail commercial.
- Mise à la terre liée aux politiques. Comme Genai est une extension de l’utilisateur en tant qu’assistant numérique, il doit être fondé sur un contenu contextuellement pertinent et sûr qui honore les contrôles d’accès de l’utilisateur et les autorisations pour prévenir l’exposition inadvertante, les fuites de données et les violations de la conformité. Ceci est accompli grâce à une architecture de génération (RAG) de la récupération qui est étroitement couplée à la structure d’autorisation de la gestion du contenu.
- Modèles de grande langue de Frontier dignes de confiance avec des conditions d’utilisation de rétention zéro. Permettre à un grand fournisseur de modèles de langue de former son Genai en utilisant vos données propriétaires ou vos informations personnellement identifiables (PII) est inacceptable pour toute organisation et non conforme dans presque toutes les juridictions et normes de gouvernance de l’information. La solution fonctionne avec Genai, qui adhère à un modèle de «rétention zéro», où aucune information client n’est jamais conservée ou utilisée pour la formation.
Construire une stratégie d’IA sécurisée avec OpenText
Chez OpenText, votre réussite de la gestion de l’information est essentielle à notre mission. Nous avons préparé des informations plus détaillées sur la création d’une stratégie d’IA sécurisée, y compris un livre blanc et un webinaire. Nous aimerions également en savoir plus sur votre voyage dans Genai et répondre à toutes les questions que vous avez, alors contactez une conversation avec nous Content OpenText ™ Aviator et notre plus grand portefeuille de gestion de contenu d’IA.
Le poste Une base sécurisée pour la gestion de contenu de l’IA est apparu en premier sur Blogs OpenText.
Source link