Fermer

octobre 25, 2023

IA générative : 5 prévisions d’entreprise en matière d’IA et de sécurité – pour 2023, 2024 et au-delà

IA générative : 5 prévisions d’entreprise en matière d’IA et de sécurité – pour 2023, 2024 et au-delà


Tendances/Prédictions :

  • L’utilisation des outils d’IA par les entreprises ne fera que croître, avec des secteurs comme l’industrie manufacturière en tête.
  • Les entreprises sécuriseront les applications IA/ML pour garder une longueur d’avance sur les risques
  • Les entreprises rechercheront une visibilité et des contrôles d’accès intelligents autour des applications d’IA et de ML
  • L’IA deviendra un élément clé de la protection des données d’entreprise
  • L’IA transformera la façon dont les entreprises appréhendent les risques et la sécurité de haut en bas

Nous sommes entrés dans l’ère de l’adoption généralisée des outils d’IA générative. De l’informatique à la finance, en passant par le marketing, l’ingénierie et bien plus encore, les progrès de l’IA amènent les entreprises à réévaluer leurs approches traditionnelles pour libérer le potentiel de transformation de l’IA. Notre analyse de données récentes Les tendances et l’utilisation de l’IA/ML le confirment : les entreprises de tous les secteurs ont considérablement accru leur utilisation de l’IA générative, à travers de nombreux types d’outils d’IA.

Que peuvent apprendre les entreprises de ces tendances et à quels développements futurs pouvons-nous nous attendre autour de l’IA générative ? Entre nos recherches et des dizaines de conversations avec des clients et des partenaires, nous pouvons nous attendre à voir un certain nombre de tendances cette année, en 2024 et au-delà.

L’utilisation des outils d’IA par les entreprises ne fera que croître, avec des secteurs comme l’industrie manufacturière en tête.

Notre recherche montre que, reflétant la tendance plus large de l’IA, les entreprises de tous les secteurs verticaux ont fortement augmenté leur utilisation de l’IA entre mai 2023 et juin 2023, avec une croissance soutenue jusqu’en août 2023. Nous constatons que la majorité du trafic IA/ML est tirée par l’industrie manufacturière, qui peut offrir un aperçu de l’innovation et de la transformation rapides entraînées par l’Industrie 4.0. En effet, son engagement substantiel dans ces outils met en évidence le rôle clé probable que l’IA et le ML joueront dans l’avenir du secteur manufacturier.

Tendance verticale de l’industrie

Zscaler

D’autres secteurs, comme la finance, ont connu une forte croissance dans l’utilisation des outils d’IA/ML, en grande partie grâce à l’adoption d’outils de chat génératifs d’IA tels que ChatGPT et Drift. En effet, depuis juin 2023, le secteur financier connaît une croissance continue dans ces domaines.

Tendance des transactions ChatGPT par secteur vertical

Zscaler

Sans surprise, OpenAI.com est devenu une force motrice, représentant 36 % du trafic IA/ML que nous avons observé. Sur les 36 % observés, 58 % du trafic vers ce domaine peut être attribué à ChatGPT. Cependant, lorsqu’il s’agit de l’outil le plus populaire utilisé, Drift remporte la couronne, suivi de ChatGPT et d’outils comme LivePerson et Writer. À mesure que de nouveaux cas d’utilisation de l’IA continuent d’émerger, il est probable que nous verrons les entreprises adopter l’IA – non seulement pour tirer parti des outils de chat génératifs de l’IA, mais aussi comme moteur essentiel de leur activité pouvant créer une différenciation concurrentielle.

Principales applications

Zscaler

Les entreprises s’efforceront de sécuriser les applications IA/ML pour garder une longueur d’avance sur les risques

Nos recherches ont également révélé qu’à mesure que les entreprises adoptent des outils d’IA/ML, les transactions ultérieures font l’objet d’un examen minutieux. Dans l’ensemble, 10 % des transactions liées à l’IA/ML sont bloquées dans le cloud Zscaler à l’aide de politiques de filtrage d’URL. Ici, les secteurs de la technologie et de la finance sont en tête, représentant plus de la moitié des transactions bloquées. Il est intéressant de noter que Drift a la particularité d’être l’application d’IA la plus bloquée et la plus utilisée. Selon toute vraisemblance, nous verrons d’autres secteurs prendre l’exemple pour garantir que les entreprises puissent minimiser les risques associés aux outils d’IA et de ML.

Les risques liés à l’exploitation des outils d’IA et de ML

Comme nous en avons discuté dans un blog récent, les risques liés à l’utilisation d’outils d’IA générative dans les entreprises sont importants. En général, ils se répartissent en deux catégories :

1. La divulgation de la propriété intellectuelle et des informations non publiques

Les outils d’IA générative peuvent permettre aux utilisateurs bien intentionnés de divulguer facilement des données sensibles et confidentielles. Une fois partagées, ces données peuvent être introduites dans les lacs de données utilisés pour former de grands modèles de langage (LLM) et peuvent être découvertes par d’autres utilisateurs. Par exemple, un développeur backend qui interroge ChatGPT : « Pouvez-vous prendre ceci ? [my source code for a new product] et l’optimiser ? Ou un membre de l’équipe commerciale saisit l’invite : « Pouvez-vous créer des tendances de ventes basées sur les données suivantes du pipeline du deuxième trimestre ? » Dans les deux cas, des informations sensibles ou une propriété intellectuelle protégée peuvent avoir été divulguées à l’extérieur de l’organisation.

2. Les risques liés à la confidentialité des données et à la sécurité des applications d’IA elles-mêmes

Toutes les applications d’IA ne sont pas égales. Les termes et conditions peuvent varier considérablement parmi les centaines d’applications IA/ML couramment utilisées. Vos requêtes seront-elles utilisées pour former davantage un LLM ? Vos données seront-elles exploitées à des fins publicitaires ? Sera-t-il vendu à des tiers ? Ce sont des questions auxquelles les entreprises doivent répondre. De même, la posture de sécurité de ces applications peut également varier, à la fois en termes de manière dont les données sont sécurisées et en termes de posture de sécurité globale de l’entreprise. Les entreprises doivent être capables de prendre en compte chacun de ces facteurs, en attribuant des scores de risque parmi des centaines d’applications d’IA/ML, pour sécuriser leur utilisation.

Les entreprises rechercheront une visibilité et des contrôles d’accès intelligents autour des applications d’IA et de ML

En corollaire à cette dernière tendance, il est probable que les entreprises continueront à rechercher des contrôles précis pour leurs applications IA/ML. Pour de nombreuses entreprises, la visibilité sera le point de départ de la création d’une politique de sécurité de l’IA, suivie de l’adoption de contrôles d’accès intelligents et granulaires pour garantir que les utilisateurs peuvent adopter ces outils de manière approuvée et sécurisée. Il existe un certain nombre de questions clés auxquelles les entreprises voudront répondre, notamment :

  1. Ai-je une visibilité approfondie sur l’utilisation de l’application d’IA par les employés ?? Les entreprises rechercheront une visibilité complète sur les outils IA/ML utilisés. De plus, ils surveilleront le trafic et les transactions de l’entreprise vers ces applications.
  1. Puis-je autoriser l’accès à certaines applications d’IA uniquement ? Les entreprises voudront autoriser un accès granulaire aux applications d’IA approuvées au niveau du département, de l’équipe et des utilisateurs. De plus, ils voudront utiliser le filtrage d’URL pour bloquer largement l’accès aux outils d’IA/ML dangereux ou indésirables. En outre, les entreprises peuvent envisager la possibilité d’autoriser un accès « avec précaution », dans lequel les utilisateurs peuvent utiliser un outil spécifique, mais sont informés des risques et des limites de son utilisation.
  1. Quelles applications d’IA protègent les données privées ? Les entreprises doivent comprendre l’état de sécurité des applications d’IA que les employés utilisent, parmi les centaines d’outils d’IA utilisés quotidiennement. Afin de configurer correctement les politiques d’accès, les entreprises doivent comprendre lesquelles de ces applications protégeront leurs données et évaluer la sécurité des organisations qui créent/gèrent ces applications.
  1. Puis-je empêcher les données de quitter l’organisation ? La prévention de la perte de données sera un facteur clé dans l’adoption de l’IA générative. Les entreprises se tourneront probablement vers les technologies de prévention des pertes de données (DLP) qui leur permettent de créer des politiques empêchant la fuite de données sensibles telles que le code source, les données structurées telles que les informations de carte de crédit et les informations personnelles. De manière plus sophistiquée, il deviendra également plus courant pour les entreprises de bloquer les actions risquées des utilisateurs lorsqu’elles utilisent des outils d’IA générative qui contribuent grandement à la perte de données, comme le copier-coller, ainsi que les chargements et téléchargements.

L’IA et le ML deviendront un élément clé de la protection des données d’entreprise

À mesure que les entreprises reconnaissent la nécessité de prévenir la perte de données sur l’ensemble de leur empreinte, il est probable qu’elles exploiteront de plus en plus l’IA comme moyen d’identifier et de protéger leurs données. Lors des conversations avec les clients sur la prévention des fuites de données, un défi qui revient fréquemment est que les entreprises manquent souvent de visibilité sur tous les endroits où se trouvent leurs données critiques et sont donc incapables de les classer et de les protéger à l’aide de technologies telles que DLP. Le DLP reste une option attractive dans le contexte de l’IA générative — nous avons une vidéo ici montrant comment DLP bloque la saisie du code source dans ChatGPT, par exemple. Cependant, faute d’une compréhension complète de leurs données, les entreprises peuvent avoir du mal à créer des politiques empêchant les fuites lors de l’utilisation de ces outils.

En conséquence, nous prévoyons que les entreprises exploiteront de plus en plus l’IA pour gagner en visibilité et améliorer l’hygiène de leurs données. Grâce au ML, par exemple, il est désormais possible de découvrir et classer automatiquement les données sensibles, telles que les documents financiers et juridiques, les données personnelles et médicales, et bien plus encore. À partir de là, les entreprises passeront à l’étape suivante et utiliseront ces catégories de données basées sur le ML comme base de leur politique DLP, évitant ainsi la perte de données lors de l’utilisation d’outils tels que ChatGPT.

L’IA transformera la façon dont les entreprises appréhendent les risques et la sécurité de haut en bas

Nous avons expliqué comment les entreprises adoptent des outils d’IA générative pour transformer leur activité. En élargissant cette approche, il est également possible d’anticiper la manière dont l’IA deviendra une fonction essentielle de l’entreprise, notamment du point de vue du risque et de la sécurité. Alors que les entreprises exploitent actuellement l’IA pour libérer de nouveaux potentiels et de nouvelles informations dans les domaines de l’informatique, de la technologie, du marketing, de l’expérience client, etc., elles se tourneront de plus en plus vers l’IA et le ML pour transformer leur perception des risques. Voici trois rôles clés que l’IA jouera de plus en plus en matière de sécurité :

  1. Fournir une vision globale des risques. Lors de conversations avec des clients, nous entendons dire que les entreprises ont généralement une visibilité limitée et des données fragmentées ou retardées sur les risques d’entreprise. De la même manière que l’IA peut aider à découvrir et à classer les données, nous prévoyons que les entreprises utiliseront l’IA pour visualiser et quantifier les risques sur l’ensemble de leur empreinte. . Cela implique d’obtenir des informations complètes et une évaluation des risques sur leur surface d’attaque et dans leurs entités commerciales, y compris leur personnel, leurs applications, leurs actifs et leurs tiers.
  1. Fournissez une visualisation et des rapports descendants. De même, les entreprises exploiteront l’IA pour obtenir une visualisation descendante et au niveau du conseil d’administration de leurs risques – un objectif critique mais rarement atteint. Les entreprises utiliseront ces informations pour découvrir et approfondir leurs principaux facteurs de risque, y compris la capacité à quantifier l’impact financier des expositions.
  2. Pilotez des mesures correctives prioritaires. Enfin, les entreprises rechercheront des outils d’IA qui leur permettront d’obtenir automatiquement des actions de sécurité et des recommandations politiques prioritaires, liées à leurs principaux facteurs de risque et améliorant de manière quantifiable la sécurité de leur organisation.

Vous souhaitez en savoir plus sur la manière dont les entreprises peuvent mieux adopter l’IA et résoudre ses risques ? Connectez-vous à notre webinaire, IA contre IA : exploiter les défenses de l’IA contre les risques liés à l’IA.




Source link

octobre 25, 2023