TL;DR : À mesure que l’IA devient partie intégrante du développement de logiciels, elle crée également de nouveaux risques de sécurité complexes. OpenText mène la charge dans Détection des risques par l’IAintégrant une analyse basée sur l’IA dans sa plate-forme AppSec pour identifier les vulnérabilités dans la façon dont les modèles d’IA, les API et les systèmes génératifs sont utilisés dans le code. Contrairement aux outils traditionnels, OpenText ne se contente pas de rechercher les failles connues. Nous comprenons comment se comporte l’IAaidant les entreprises à établir la confiance, à garantir la conformité et à innover de manière responsable. Ce qu’il faut retenir : à l’ère de l’IA, l’innovation sécurisée dépend de la détection des risques liés à l’IA avant qu’ils ne deviennent un risque commercial.
Naviguer dans la nouvelle frontière de la sécurité des applications
L’intelligence artificielle (IA) n’est plus un concept futuriste, elle est intégrée dans presque tous les processus commerciaux et produits logiciels modernes. De l’automatisation de la génération de code à la création d’expériences numériques adaptatives, l’IA redéfinit la manière dont les organisations innovent et sont compétitives.
Mais chaque pas en avant entraîne une nouvelle classe de risques. Les mêmes modèles qui aident les organisations à accélérer leur développement peuvent par inadvertance introduire des vulnérabilités, exposer des données sensibles ou permettre des comportements non sécurisés lorsqu’ils sont intégrés sans gouvernance appropriée. Les systèmes d’IA sont devenus plus profondément intégrés à la chaîne d’approvisionnement des logiciels. Le défi n’est plus simplement « à quelle vitesse pouvons-nous adopter l’IA ? » mais plutôt « dans quelle mesure pouvons-nous le déployer en toute sécurité ?
C’est ici Sécurité des applications OpenText™ est à la pointe du secteur en détectant les risques liés à l’IA à la source et transformer l’innovation responsable en IA en un avantage commercial.
Le prochain défi de sécurité : les logiciels basés sur l’IA
Les applications basées sur l’IA introduisent une nouvelle couche d’hypothèses de confiance. Les grands modèles linguistiques (LLM) et les frameworks agents sont puissants, mais ils peuvent produire des résultats imprévisibles ou dangereux s’ils ne sont pas correctement validés. Le risque s’aggrave lorsque les systèmes d’IA prennent des décisions autonomes, génèrent du code ou s’interfacent directement avec des API sensibles.
Une étude récente menée par OpenText Software Security Research (SSR) souligne que de nombreuses vulnérabilités actuelles ne proviennent pas d’intentions malveillantes, mais d’une confiance implicite, les développeurs supposant que les réponses de l’IA ou le code généré sont sûrs par défaut. L’équipe de recherche en sécurité d’OpenText s’attaque à ce problème de front. Nous intégrons de nouvelles capacités de détection qui identifient les faiblesses dans la manière dont les modèles d’IA sont intégrés, utilisés et validés au sein des applications.
Comment OpenText AppSec détecte et atténue les risques liés à l’IA
OpenText AppSec se différencie par Tests de sécurité profondément intégrés et sensibles à l’IA. Des outils traditionnels qui se concentrent uniquement sur les vulnérabilités connues du code. Les moteurs SAST et DAST d’OpenText analysent désormais le contexte de l’utilisation de l’IA, de la manière dont les modèles, les invites et les API interagissent au sein de l’écosystème d’applications plus large.
Certaines innovations clés comprennent :
- Analyse de la confiance du modèle d’IA : Détecte les vulnérabilités résultant de réponses non validées ou trop fiables des API AI/ML, garantissant une intégration sécurisée avec les frameworks LLM tels que Python AutoGen et Google Vertex AI.
- Conscience du cadre génératif : AppSec d’OpenText met continuellement à jour les ensembles de règles pour identifier les risques émergents liés aux systèmes basés sur des agents, aux flux de travail d’IA coopératifs et à l’injection de code généré par l’IA.
- Audit augmenté par l’IA avec SAST Aviator : Utilisation du Claude LLM d’Anthropic, d’OpenText Aviateur La technologie améliore la précision de l’audit du code, réduisant considérablement les faux positifs et fournissant des explications lisibles par l’homme pour les problèmes détectés.
- Contenu continu axé sur la recherche : L’équipe SSR surveille et modélise les nouveaux écosystèmes de développement d’IA, traduisant leurs résultats en mises à jour en temps réel sur les produits OpenText AppSec, permettant ainsi aux clients de garder une longueur d’avance sur l’évolution des menaces d’IA.
En intégrant ces informations directement dans le cycle de vie de la sécurité des applications, OpenText aide les organisations à détecter et à atténuer les risques. avant ils impactent les systèmes de production.
Concilier innovation et responsabilité
Le risque lié à l’IA est plus qu’un problème de sécurité, c’est un risque commercial. L’impact potentiel couvre les violations de conformité, les atteintes à la réputation, l’exposition à la propriété intellectuelle et la perte de confiance des clients.
L’approche d’OpenText combine rigueur technique et connaissance de la gouvernance, aidant les organisations à aligner leur développement d’IA sur les normes émergentes en matière de IA responsable. Les chefs d’entreprise gagnent en clarté sur des questions clés :
- Où l’IA est-elle utilisée dans notre écosystème logiciel ?
- Les données utilisées par ces systèmes sont-elles protégées et conformes ?
- Pouvons-nous expliquer, valider et contrôler ce que produisent nos systèmes d’IA ?
OpenText transforme ces inconnues en informations exploitables, permettant aux équipes de sécurité et commerciales de prendre des décisions sûres et informées sur les risques concernant l’adoption de l’IA.
Le pouvoir de l’innovation basée sur la recherche
Ce qui distingue OpenText, ce n’est pas seulement son portefeuille de produits, c’est aussi le profondeur de ses recherches en matière de sécurité. Avec plus de 1 700 catégories de vulnérabilités suivies dans plus de 33 langues et plus d’un million d’API, la plateforme AppSec s’appuie sur un réseau mondial de renseignement qui évolue en permanence avec le paysage des menaces.
Cette même expertise alimente désormais les capacités de détection des risques d’IA d’OpenText. À mesure que les cadres d’IA générative évoluent, l’équipe SSR traduit rapidement les nouvelles découvertes en logique de détection mise à jour, garantissant ainsi que les clients sont protégés contre des risques qui n’existaient même pas il y a six mois.
Bâtir la confiance numérique à l’ère de l’IA
L’IA transforme tous les secteurs, mais l’innovation sans sécurité n’est pas durable. Détecter et gérer les risques liés à l’IA ne consiste pas à ralentir, mais à créer la confiance nécessaire pour innover de manière responsable.
Avec OpenText AppSec, les organisations peuvent exploiter la puissance de l’IA tout en maintenant le contrôle, la transparence et la confiance. En détectant de manière proactive les vulnérabilités liées à l’IA, OpenText aide les dirigeants à transformer la sécurité en un avantage stratégique, leur permettant ainsi de construire plus rapidement, plus intelligemment et plus sûrement.
En bref:
L’IA est peut-être en train de réécrire les règles du développement logiciel, mais OpenText AppSec redéfinit la façon dont nous le sécurisons.
Le poste Voir l’invisible : comment OpenText ouvre la voie dans la détection des risques liés à l’IA est apparu en premier sur Blogues OpenText.
Source link

