Fermer

juin 4, 2025

L’avenir de la cybersécurité: idées de RSAC 2025

L’avenir de la cybersécurité: idées de RSAC 2025

Ceci est une image de deux analystes SOC représentant ce à quoi ressemblent l'avenir de la cybersécurité

Mon collègue Nakkul Khurana et moi avons assisté à la conférence RSA 2025 (RSAC 2025) pour donner une conférence sur le travail que nous avons accompli en texte ouvert. Comment utiliser les LLM pour augmenter les alertes de menace avec le cadre de mitre a été bien reçu avec environ 200 personnes présents. Le stand de texte ouvert de l’Expo a présenté tous nos produits de cybersécurité, était également une attraction principale pour les visiteurs.

L’événement était également rempli de sessions perspicaces couvrant les dernières tendances et défis de la cybersécurité. Cette année a été un objectif majeur de l’intersection de intelligence artificielle (IA) et cybersécuritéExplorer à la fois les avantages et les risques. Ce message résume certains plats clés de divers conférences présentées lors de la conférence.

Le double rôle de l’IA dans la cybersécurité

Plusieurs séances ont mis en évidence le rôle évolutif de l’IA. George Gerchow a parlé de « exploitation de l’IA pour améliorer la sécurité du cloud tout en s’attaquant aux nouveaux vecteurs d’attaque ». Il a expliqué comment les robots alimentés par l’IA comme Guardian Bot (GB) de Mongodb deviennent essentiels pour la réponse en temps réel et l’automatisation des tâches de sécurité et de conformité. Ces robots utilisent l’IA pour s’adapter aux menaces émergentes et améliorer l’efficacité opérationnelle, réduisant considérablement les temps de réponse.

Cependant, l’IA présente également de nouveaux risques. Présentation de Michael Bargury, « Votre copilote est mon initié », a plongé dans les vulnérabilités associées aux copilotes et plugins d’IA. Il a discuté de la fuite potentielle des données, de l’intoxication des chiffons et de nouveaux vecteurs d’attaque qui découlent de l’intégration de l’IA dans les processus métier. L’intime à retenir était que l’IA peut améliorer considérablement la sécurité. Cependant, cela nécessite également des mesures de gestion et de sécurité minutieuses pour éviter une mauvaise utilisation.

L’importance de la sécurité dans les systèmes de chiffon

Akash Mukherjee et « Rag-Narok: Dr. Saurabh Shintre: ce que les chiffons mal construits peuvent faire à la sécurité des données » ont souligné les défis de sécurité dans les systèmes de génération augmentée (RAG) de récupération. Ils ont expliqué que l’ajout de données privées aux chatbots nécessite des contrôles d’accès et des autorisations robustes pour éviter la fuite de données. Akash et Saurabh ont également discuté de différentes méthodes d’application de l’autorisation ainsi que la nécessité d’une protection sensible des données au-delà des autorisations.

Automatisation de la sécurité avec des workflows axés sur LLM

Dans la session «Automatisation de sécurité accélérée avec les workflows dirigés par LLM», Steve Povolny a exploré l’application de modèles de grande langue (LLM) dans l’automatisation des opérations de sécurité. Il a couvert divers outils LLM, les meilleures pratiques d’ingénierie rapide et les cas d’utilisation du monde réel pour améliorer l’efficacité du centre des opérations de sécurité (SOC). Steve a également souligné l’importance de lutter contre les considérations de sécurité telles que la confidentialité des données, les risques d’injection rapide et le biais du modèle.

Principes de la sécurité du Genai

La conférence de Diana Kelley, «Principes de la sécurité de Genai: fondations de la sécurité de la construction», a fourni un aperçu de la sécurité générative de l’IA (Genai). Elle a discuté du paysage de la menace Genai, des considérations architecturales et de la sécurité lors de l’exécution. Les clés à retenir incluent l’importance de comprendre les risques uniques associés aux systèmes d’IA et de mettre en œuvre des principes de sécurité par conception.

Modèles neuronaux adversaires dans les LLM

Dans « Beyond the Black Box révélant les modèles neuronaux adversaires dans les LLM », Mark Cherp et Shaked Reiner se sont concentrés sur la découverte des vulnérabilités cachées dans les LLM. Ils ont discuté de nouvelles techniques et atténuations de jailbreak, explorant la « psychologie » des modèles et comment ils peuvent être manipulés. Cette conférence a souligné la nécessité d’une recherche continue et d’un développement des défenses contre les attaques sophistiquées de l’IA.

Sécurité de la chaîne d’approvisionnement et menaces émergentes

La présentation du Dr Andrea Little Limbago, « Un moment Stuxnet pour la sécurité de la chaîne d’approvisionnement? » abordé la menace émergente de l’infiltration de la chaîne d’approvisionnement, faisant référence à des incidents récents comme les attaques du téléavertisseur. Elle a discuté de la croissance des attaques de chaîne d’approvisionnement numérique et potentiellement de transférer les cyber-normes. Son discours a également souligné la nécessité d’une amélioration des mesures de sécurité et de la vigilance dans les chaînes d’approvisionnement matérielles et logicielles.

L’avenir de la sécurité UX avec une AI agent

« Comment la sécurité UX doit changer, avec une IA d’agence », a exploré comment l’expérience utilisateur (UX) dans la sécurité doit s’adapter avec la montée en puissance de l’IA d’agent. Dans ce discours, Steph Hay a mis l’accent sur les tâches de déchargement, les UIS dynamiques et les résultats exponentiels. Des fonctionnalités UX d’assistance telles que « Easy Buttons », les invites à tête de série et les chats multi-tours deviendront cruciaux pour améliorer les opérations de sécurité.

Ingénierie sociale et Genai

La session de Perry Carpenter, «Conversations avec un kidnappeur virtuel (et d’autres scambots) alimentés par Genai», a examiné comment les attaques d’ingénierie sociale peuvent tirer parti de l’IA générative. Il a démontré comment ces outils créent des escroqueries réalistes et ont souligné la nécessité pour les organisations de préparer et de former les employés à reconnaître et à répondre à ces menaces.

« Les courtiers d’accès initiaux: une plongée profonde », a fourni des informations sur le monde des courtiers d’accès initiaux (IAB). Dans cet exposé, Amit Weigman a discuté de leurs méthodes de fonctionnement, des types d’accès qu’ils vendent et des tendances actuelles du marché. Comprendre l’écosystème IAB est crucial pour prévenir et répondre aux violations de sécurité.

L’évolution du SOC dans un univers a-Ai

La présentation de Dave Gold, « L’avenir du SOC dans un univers basé sur l’IA », a révélé l’état actuel des centres d’opérations de sécurité (SOC) et comment ils évolueront avec l’IA. Il a souligné le passage des processus manuels aux SOC semi-autonomes et autonomes, la nécessité de plates-formes évolutives axées sur l’IA et l’évolution des visualisations SOC.

Stravance et sécurité des agents LLM

«Strucky and Sécurité des agents LLM: défis et orientations futures», axée sur les défis uniques de sécurité et de sécurité posés par les agents LLM. Dawn Song a discuté des attaques potentielles, des méthodes d’évaluation, de l’évaluation des risques et des défenses pour ces systèmes. Assurer à la fois la sécurité et la sécurité est crucial pour réaliser les avantages des agents LLM.

Zero Trust AI et Multi-Agent Systems

Dans « Zero Trust AI: sécuriser les systèmes multi-agents pour le raisonnement privé des données », Ken Huang a abordé la sécurité des systèmes multi-agents. Il a introduit l’approche de modélisation des menaces maestro et a souligné la nécessité d’un modèle de sécurité zéro-frust dans les systèmes d’IA gérant des données privées.

Conclusion

Le RSAC 2025 indique clairement que l’IA change fondamentalement le paysage de la cybersécurité. Bien qu’il offre d’énormes opportunités d’améliorer les défenses, il introduit également de nouveaux défis et complexes. Les organisations doivent s’adapter en comprenant ces changements, en adoptant de manière proactive des solutions de sécurité axées sur l’IA et en abordant les risques associés. Rester informé et préparé est essentiel pour naviguer dans l’avenir de la cybersécurité.

Apprendre comment Détection et réponse des menaces de base OpenText tire parti de l’analyse comportementale dirigée par l’IA pour révolutionner les équipes SOC.

Le poste L’avenir de la cybersécurité: idées de RSAC 2025 est apparu en premier sur Blogs OpenText.




Source link