Fermer

janvier 20, 2026

Un guide sur l’IA AppSec

Un guide sur l’IA AppSec

Image représentant les tests AI AppSec.

Les équipes de sécurité des applications n’ont généralement pas de difficulté à trouver problèmes. Ils luttent pour continuez avec eux.

À mesure que les programmes AST évoluent, la couverture de l’analyse s’étend à davantage d’applications, à davantage d’équipes, à davantage de pipelines et les résultats s’accumulent rapidement. Chaque découverte nécessite encore une validation, un contexte, une priorisation et un chemin vers la remédiation. À l’échelle de l’entreprise, ce « dernier kilomètre » devient un goulot d’étranglement monumental.

OpenText s’est heurté à la même réalité au sein de sa propre organisation d’ingénierie. Avec des milliers d’applications et plus de 7 000 développeurs, les tests de sécurité produitsdes centaines de milliers de problèmeset la révision manuelle la plus requise. En moyenne, chaque constatation a pris~10 minutesà évaluer. (un énorme frein opérationnel qui a réduit le temps d’ingénierie consacré à l’expédition du produit)

Les plats à emporter : le défi n’est pas la couverture. C’est l’évolutivité. 

L’approche : AI AppSec audite les résultats avant les humains

OpenText construitAviateur de sécurité des applicationsen tant que capacité d’IA générative au sein de la plateforme OpenText Application Security. Aviator audite les résultats SAST à l’aide de l’IA avant que les humains n’aient à le faire, analysant et enrichissant les résultats pour réduire le temps de tri, améliorer la qualité des correctifs et aider les organisations à étendre la couverture AppSec sans ajouter d’effectifs.

En tant queAI code security assistant (ACSA),Aviator s’intègre aux flux de travail des développeurs et peut s’exécuter en ligne dans les pipelines CI/CD ou être activé de manière centralisée via Software Security Center (SSC). Il fournit des explications en langage simple et des mesures correctives guidées, notamment des suggestions de code et des correctifs automatisés que les équipes peuvent examiner et appliquer.

Résultats d’OpenText AI AppSec :

OpenText a d’abord validé Aviator par rapport à son propre environnement, où toute faiblesse d’échelle ou de précision apparaîtrait rapidement. Au cours des huit premières semaines de déploiement interne,1 500 candidaturesont été embarqués.

Les résultats étaient mesurables :

  • Plus de 300 000 résultats analysé et disposé
  • Temps moyen de triage (MTTT) réduit de 70 %
  • Trois millions de minutes de révision manuelle retirée du pipeline
  • Équivalent à 50 000 heures (2 080 jours) économisés et un gain de productivité de 29 salariés à temps plein à travers l’ingénierie

Vous voulez les mêmes résultats pour votre organisation ?

Nous avons capturé comment OpenText a fait cela dans unnouveau guidey compris l’approche de déploiement, la manière dont Aviator a été opérationnalisé dans de véritables flux de travail de développement et ce qu’il a fallu pour évoluer sur un vaste portefeuille d’applications. Alors que le codage assisté par l’IA accélère le développement et augmente la production de code, les équipes de développement ont besoin d’un moyen d’étendre la révision et la correction sans devenir un goulot d’étranglement.

Si votre programme AppSec lutte contre la fatigue du triage, les faux positifs ou les retards croissants de révision, ce guide présente le plan interne utilisé par OpenText et les résultats mesurables qu’ils ont obtenus, ainsi que des points pratiques que vous pouvez appliquer à votre propre programme.

Lire le guide complet :AI AppSec, éprouvé à grande échelle : le modèle et les résultats d’OpenText  

Le poste Un guide sur l’IA AppSec est apparu en premier sur Blogues OpenText.




Source link