Fermer

mai 10, 2024

Sécuriser les déploiements d’IA : trouver l’équilibre

Sécuriser les déploiements d’IA : trouver l’équilibre

Robot IA regardant un écran avec un cyber-verrouillage projeté en arrière-plan

Les récents leaders informatiques Enquête CIO MarketPulse réalisée par Foundry souligne que les données doivent être prêtes pour l’IA. Si ces informations ne sont pas précises, accessibles et sécurisées, les organisations n’obtiendront pas les résultats souhaités. En ce qui concerne les défis auxquels les organisations sont confrontées dans la mise en œuvre de l’IA, les personnes interrogées ont cité les problèmes liés à la gestion des données comme les plus importants. Étant donné que l’IA s’appuie sur les données pour apprendre et s’améliorer, les organisations doivent garantir que leurs données sont exactes, accessibles et sécurisées. Ils doivent également bâtir une base de données solide, y compris un cadre de gouvernance, pour tirer pleinement parti des avantages de l’IA.

Les DSI sont à l’avant-garde pour guider le parcours de leur organisation vers le domaine de l’intelligence artificielle. Une majorité significative, 71 %, sont profondément impliquées dans la formulation d’applications d’IA, tandis qu’un pourcentage encore plus élevé, 80 %, recherchent et évaluent activement les intégrations potentielles de l’IA dans leur pile technologique.

L’avantage OpenText™ 

Depuis des décennies, les entreprises se tournent vers les solutions de gestion de l’information d’OpenText pour organiser, connecter, gouverner et protéger tous les ensembles de données. L’intelligence artificielle (IA) nécessite ces stratégies de données fondamentales pour lesquelles OpenText est connu. La gestion de l’information améliore les données. Et meilleures sont les données, meilleure est l’IA. Du traitement du langage naturel à la robotique en passant par l’apprentissage automatique, notre histoire en matière d’application de l’IA met l’avenir à votre portée.

Chaque jour, nous constatons le pouvoir qu’une excellente gestion de l’information apporte à nos clients en connectant les utilisateurs au contenu et aux données et en dynamisant les processus riches en contenu grâce à l’intelligence et à l’automatisation. Le lancement d’OpenText™ Aviator apporte la puissance des grands modèles de langage (LLM) et de l’IA générative (GenAI) aux utilisateurs de gestion de l’information. Dans le même temps, nous devons également protéger les informations sensibles et fournir des informations précises à l’utilisateur. OpenText est largement reconnu pour apporter une gouvernance de l’information fiable et sécurisée aux processus clients et pour améliorer la sécurité des clients.

Le OWASP Top 10 pour les applications LLM de grands modèles de langage identifie trois domaines en particulier qui doivent être abordés lors des phases de planification et d’exploitation du remplissage et de l’accès aux grands modèles linguistiques (LLM) :

  1. Supprimez de grandes quantités d’informations personnelles identifiables (PII) dans de grands ensembles de données.
  1. Implémentez des contrôles d’accès de moindre privilège pour protéger les LLM contre les modifications néfastes.
  1. Recherchez les vulnérabilités existantes dans le modèle LLM ou la chaîne d’approvisionnement.

Découverte et protection des données OpenText™ Voltage Fusion 

Les informations personnellement identifiables (PII) font référence à toutes les données pouvant être utilisées pour identifier un individu. Les exemples incluent les noms, adresses postales, numéros de téléphone, numéros d’assurance sociale et détails de carte de crédit. Lors de la mise en œuvre de GenAI et des modèles de langage de formation (LLM), les entreprises sont confrontées au défi d’inclure accidentellement des informations personnelles dans les données de formation. Si les informations personnelles font partie de l’ensemble de données de formation du modèle, elles peuvent générer des réponses aux utilisateurs, entraînant potentiellement des violations de données, des compromissions en matière de confidentialité et des violations des réglementations de conformité. OpenText Aviator et Voltage Fusion sont équipés pour aider les grands secteurs industriels à gérer leurs paysages réglementaires, en garantissant la conformité aux normes spécifiques au secteur telles que le RGPD, la PCI DSS, la FCC et l’évolution des lois sur la confidentialité.

Fusion de tension OpenText est une plateforme de sécurité des données basée sur le cloud qui protège les données sensibles, y compris les informations personnelles identifiables (PII). Voici comment cela fonctionne:

  1. Découverte de données basée sur l’IA: Voltage Fusion peut détecter des informations réglementées, telles que les informations personnelles, dans des données non structurées et structurées. Cela lui permet d’identifier et de classer les données sensibles dans votre parc de données.. Les grammaires contextuelles basées sur l’IA réduisent les faux positifs et identifient rapidement les actifs de grande valeur (par exemple, les contrats, la propriété intellectuelle, les brevets, etc.) et les types de données personnelles ou sensibles (par exemple, PI/PII, PCI, PHI, etc.) .
  1. Classification des données: Cela va au-delà de la simple évaluation des risques en reliant la découverte et la classification des données à l’impact financier et commercial potentiel d’une violation ou d’une non-conformité des données. Cela permet de prioriser la réduction des risques.
  1. Technologies de protection des données: Voltage Fusion remplace la correction manuelle par des technologies de protection des données automatisées et alignées sur la confidentialité qui améliorent la conformité et favorisent une solide éthique des données et la croissance de l’entreprise. Il utilise des technologies améliorant la confidentialité, notamment le cryptage préservant le format, la tokenisation, le hachage et le masquage des données.. Voltage Fusion exploite les technologies de pointe de cryptage à préservation de format (FPE), de tokenisation sans état sécurisée (SST) et de hachage à préservation de format (FPH) de Voltage SecureData.
  1. Gestion des données de test: Automatise la confidentialité et la protection des données sensibles de production et PII, en les préparant aux tests, à la formation et aux pipelines LLM.
  1. Gouvernance de l’accès aux données: Seuls les utilisateurs autorisés disposant des rôles appropriés peuvent accéder aux données en cas de besoin. Il permet également les notifications de modifications, la gestion du cycle de vie, le verrouillage de sécurité et la clôture de sécurité..
  1. Masquage, chiffrement préservant le format et tokenisation: Ces technologies désidentifient les données pour les rendre inutiles aux attaquants tout en préservant leur convivialité et leur intégrité référentielle pour les processus de données, les applications et les services.

En mettant en œuvre ces mesures, OpenText Voltage Fusion contribue à empêcher la fuite de données PII, améliorant ainsi la sécurité des données et les pratiques de confidentialité.

OpenText™ NetIQ Gestion des identités, des informations d’identification et des accès (ICAM) 

Pour répondre au besoin d’accès avec le moindre privilège à l’application LLM, OpenText NetIQ constitue la pierre angulaire de notre suite de cybersécurité, défendant la confidentialité basée sur l’identité. Il offre une protection complète des données grâce à une authentification adaptative basée sur les risques et une intégration transparente avec OpenText Extended Content Management (xECM). Un moteur politique dynamique, capable de réagir immédiatement aux changements organisationnels lors d’étapes critiques telles que les transitions d’employés, renforce cette intégration. De plus, notre technologie d’apprentissage automatique Interset améliore la gouvernance et l’administration des identités, en utilisant la détection des anomalies pour élever le score de risque de gouvernance. Cette approche avancée permet une application proactive des politiques, neutralisant efficacement les acteurs malveillants en révoquant l’accès au point crucial de la vérification de l’identité.

Protection des magasins de données de formation : 

  • Protégez l’accès aux magasins de données de formation. Un accès non autorisé pourrait entraîner un empoisonnement des données, introduisant ainsi un biais dans le modèle.
  • Mettez en œuvre des contrôles stricts pour empêcher les modifications non autorisées ou l’exposition des données de formation.

Contrôle d’accès des modèles LLM : 

  • Contrôlez l’accès aux modèles LLM. Limitez les autorisations au personnel autorisé.
  • Un accès correctement configuré garantit l’intégrité du modèle et évite les biais involontaires dans les sorties.

Protection des données sensibles : 

  • Protégez les données sensibles dans les magasins de données de formation et les modèles LLM.
  • Des contrôles d’accès robustes empêchent l’exposition accidentelle ou l’utilisation abusive d’informations sensibles.

Accès au système IA et aux plugins : 

  • Définissez des autorisations précises pour les systèmes d’IA et les plugins interagissant avec les services en aval.
  • Évitez d’accorder une agence excessive pour éviter les effets négatifs sur les systèmes en aval.

OpenText™ Fortify Sécurité des applications Détection des risques ML/IA 

Effectuer des analyses de sécurité contre des modèles de langage étendus (LLM) et des modèles d’apprentissage automatique est crucial pour plusieurs raisons :

  1. Identifier les vulnérabilités: Les analyses de sécurité peuvent aider à identifier les vulnérabilités potentielles du modèle. La complexité introduite par les algorithmes d’apprentissage automatique tels que les modèles de langage, qui exploitent de vastes volumes de données de formation, peut exposer de nouvelles vulnérabilités en matière de sécurité.
  1. Prévenir les abus: Les LLM ont considérablement transformé le paysage du traitement du langage naturel (NLP). Cependant, ils introduisent également des considérations critiques en matière de sécurité et de risque1. Les analyses de sécurité peuvent aider à prévenir les dommages potentiels causés par une mauvaise utilisation des LLM.
  1. Garantir la fiabilité: À mesure que l’utilisation du LLM se développe et que ces modèles sont de plus en plus intégrés dans diverses applications et plates-formes, il est crucial de relever les défis posés par les LLM pour garantir la fiabilité et la sécurité des systèmes pilotés par LLM.
  1. Détecter les menaces: L’analyse du code détectera les menaces telles que l’injection rapide, la gestion des sorties non sécurisée (qui peut inclure XSS) et la conception de plugins non sécurisée, qui sont des problèmes de sécurité dans l’IA.
  1. Conformité à la réglementation: Les analyses de sécurité peuvent contribuer à garantir que l’utilisation des LLM est conforme aux réglementations et normes en matière de confidentialité des données.
  1. À l’épreuve du temps: Des analyses de sécurité régulières peuvent aider à suivre la nature évolutive des menaces dans le paysage numérique.

Les analyses de sécurité des applications sont essentielles à des pratiques responsables lors du déploiement de LLM et d’autres modèles d’apprentissage automatique.

Les deux Assistant d’audit Fortify service et Analyseur de code statique Fortify peut identifier les problèmes liés à l’utilisation de l’IA générative et des grands modèles de langage (LLM) qui modifient rapidement l’espace des solutions de l’industrie du logiciel et présentent de nouveaux risques. La prise en charge initiale de Fortify couvre les projets Python qui utilisent l’API OpenAI, Amazon Web Services (AWS), SageMaker ou LangChain. Fortify détecte les faiblesses résultant de la confiance implicite dans les réponses des API de modèles AI/ML, ainsi que de certaines fonctionnalités uniques autour du Cross-Site Scripting pour les applications développées à l’aide de grands modèles de langage (LLM).

Le service Fortify Audit Assistant utilise également des algorithmes d’apprentissage automatique basés sur des centaines de millions de décisions d’audit anonymes. À l’aide d’Audit Assistant, ces modèles de décision peuvent être automatiquement appliqués aux résultats d’OpenText Fortify. Audit Assistant s’améliore de plus en plus avec le temps. Plus vous auditez vos vulnérabilités, plus les modèles apprennent ce qui est approprié pour vos projets.

Conclusion 

L’intégration de l’IA dans les processus métier présente à la fois des opportunités et des défis. Des données précises, accessibles et sécurisées sont essentielles à une mise en œuvre efficace de l’IA. Les organisations doivent établir un cadre de gouvernance des données robuste pour exploiter tout le potentiel de l’IA. Les RSSI/CIO jouent un rôle central dans cette transformation, la majorité d’entre eux étant activement impliqués dans le développement d’applications d’IA et dans l’exploration de nouvelles intégrations d’IA. Fort de son expertise de longue date en gestion de l’information, OpenText fournit des solutions qui améliorent la qualité des données, essentielles au succès de l’IA. Leur dernière offre, OpenText™ Aviator, intègre de grands modèles de langage et une IA générative, responsabilisant les utilisateurs tout en maintenant un engagement en faveur de la protection et de la gouvernance des données. Cette approche positionne OpenText comme un leader de la gestion de l’information sécurisée et fiable, prêt à répondre aux exigences d’un avenir axé sur l’IA.

Écrit par Gary Freeman, responsable Conseil en solutions ; Roland Kahl, consultant principal en solutions ; Pedro Garcia, consultant principal en solutions ; et Richard Cabana, consultant principal en solutions

La poste Sécuriser les déploiements d’IA : trouver l’équilibre est apparu en premier sur Blogues OpenText.




Source link