Fermer

octobre 10, 2023

Implications de l’IA générative pour la sécurité des entreprises

Implications de l’IA générative pour la sécurité des entreprises


L’IA générative a rapidement changé ce que le monde pensait possible grâce à l’intelligence artificielle, et son adoption généralisée peut sembler choquante pour ceux qui ne travaillent pas dans le secteur de la technologie. Cela inspire admiration et malaise – et souvent les deux à la fois.

Alors, quelles sont ses implications pour l’entreprise et la cybersécurité ?

Un point d’inflexion technologique

L’IA générative fonctionne sur des réseaux de neurones alimentés par des systèmes d’apprentissage profond, tout comme le cerveau. Ces systèmes sont comme les processus d’apprentissage humain. Mais contrairement à l’apprentissage humain, la puissance des données issues du crowdsourcing combinée aux bonnes informations de l’IA générative signifie que le traitement des réponses sera des années-lumière plus rapide. Ce qui pourrait prendre 30 ans à un individu à traiter pourrait prendre juste un clin d’œil. C’est un avantage qui peut être obtenu en fonction de la qualité ainsi que des quantités massives de données qui peuvent y être introduites.

Cela change la donne en matière de science et d’ingénierie pour l’entreprise. Une technologie qui peut grandement améliorer l’efficacité des organisations, leur permettant d’être nettement plus productives avec le même nombre de ressources humaines. Mais le choc de la rapidité avec laquelle les applications d’IA générative telles que ChatGPT, Bardeet Pilote GitHub apparu du jour au lendemain a naturellement pris par surprise les responsables informatiques des entreprises. Si vite qu’en seulement six mois, la vulgarisation des outils d’IA générative atteint déjà un point d’inflexion technologique.

Les défis de la cybersécurité

L’IA générative, y compris ChatGPT, est principalement fournie via un modèle de logiciel en tant que service (SaaS) par des tiers. L’un des défis que cela pose est que l’interaction avec Generative AI nécessite de fournir des données à ce tiers. Grands modèles d’apprentissage (LLM) qui soutiennent ces outils d’IA nécessitent le stockage de ces données pour répondre intelligemment aux invites ultérieures.

L’utilisation de l’IA présente des problèmes importants en matière de perte de données sensibles et de conformité. La fourniture d’informations sensibles aux programmes d’IA générative, telles que les données personnelles identifiables (PII), les informations de santé protégées (PHI) ou la propriété intellectuelle (IP), doit être considérée dans la même optique que les autres relations entre processeurs de données et contrôleurs de données. C’est pourquoi des contrôles appropriés doivent être mis en place.

Les informations introduites dans les outils d’IA comme ChatGPT deviennent une partie de son pool de connaissances. Tout abonné à ChatGPT a accès à cet ensemble de données commun. Cela signifie que toutes les données téléchargées ou demandées peuvent ensuite être relues dans le cadre de certaines garde-fous de l’application à d’autres tiers qui posent des questions similaires. Il convient de noter que cela est très similaire aux problèmes d’application SaaS (Software-as-a-Service), car cela peut avoir un impact sur la réponse des requêtes futures lorsqu’il est utilisé comme ensemble de formation. Dans l’état actuel des choses, la plupart des outils d’IA générative ne disposent pas de politiques concrètes de sécurité des données pour les données fournies par les utilisateurs.

La menace interne devient également importante avec l’IA. Les initiés ayant une connaissance approfondie de leur entreprise peuvent utiliser ChatGPT pour créer des e-mails très réalistes. Ils peuvent reproduire le style, les fautes de frappe, tout d’un autre. De plus, les attaquants peuvent également dupliquer exactement des sites Web.

Ce dont les entreprises ont besoin pour la sécurité

Heureusement, il existe des solutions de protection générative contre l’IA, telles que Symantec DLP Cloud, protection adaptative sur Symantec Endpoint Security Complete (SESC), et lien en temps réel en matière de sécurité de la messagerie électronique, qui répondent à ces défis émergents et bloquent les attaques de différentes manières ciblées.

Symantec DLP Cloud étend Generative AI Protection aux entreprises, avec les capacités dont elles ont besoin pour découvrir, puis surveiller et contrôler l’interaction avec les outils d’IA générative au sein de leur organisation. Entre autres avantages, DLP peut utiliser l’IA pour accélérer la priorisation des incidents, aidant ainsi les analystes senior à trier les plus importants et à reconnaître ceux qui ne constituent pas une menace critique pour l’entreprise.

Les avantages comprennent :

  • Offrez aux entreprises la capacité de comprendre les risques auxquels elles sont exposées, outil par outil, grâce à l’IA générative.
  • Permettez l’utilisation sûre et sécurisée des outils d’IA populaires en fournissant les garanties nécessaires pour empêcher le téléchargement ou la publication de données sensibles, intentionnellement ou par inadvertance.
  • Identifiez, classifiez et documentez la conformité des PHI, PII et autres données critiques.

En résumé : Symantec Generative AI Protection permet aux entreprises de « dire oui » aux innovations améliorant la productivité de l’IA générative sans compromettre la sécurité et la conformité des données.

Apprenez-en davantage sur les implications de l’IA générative pour l’entreprise ici.

À propos d’Alex Au Yeung

Logiciel Broadcom

Alex Au Yeung est le directeur des produits de la division Symantec Enterprise chez Broadcom. Vétéran des logiciels depuis plus de 25 ans, Alex est responsable de la stratégie produit, de la gestion des produits et du marketing pour l’ensemble de Symantec.




Source link

octobre 10, 2023