Le NIST lance un effort ambitieux pour évaluer les risques du LLM

L’administration Biden « s’efforce de suivre l’évolution constante de la technologie », ce avec quoi de nombreuses administrations ont eu du mal, sans doute sans succès, a déclaré Brian Levine, directeur général d’Ernst & Young. En effet, Levine a déclaré qu’il voyait certains efforts actuels – en particulier en matière d’IA générative – aller potentiellement dans la direction opposée, les régulateurs américains et mondiaux intervenant « trop tôt, alors que la technologie est encore en pleine évolution ».
Dans ce cas, cependant, Levine a déclaré qu’il considérait les efforts du NIST comme prometteurs, étant donné la longue et illustre histoire du NIST en matière de conduite précise d’un large éventail de tests technologiques. L’une des premières décisions du NIST, a-t-il déclaré, sera de déterminer « le type de code d’IA qu’il est préférable de tester ici ». Une partie de cela peut être influencée par les organisations qui se portent volontaires pour que leur code soit examiné, a-t-il déclaré.
Certains responsables d’IA ont déclaré qu’il serait difficile d’analyser les LLM en vase clos, étant donné que les risques dépendent de leur utilisation. Néanmoins, Prins a déclaré qu’il était utile d’évaluer uniquement le code.
« En matière de sécurité, le personnel doit être formé aux meilleures pratiques en matière de sécurité, mais cela n’enlève rien à la valeur des logiciels anti-hameçonnage. La même logique s’applique à la sûreté et à la sécurité de l’IA : ces problèmes sont importants et doivent être abordés sous de nombreux angles différents », a déclaré Prins. « La façon dont les gens abusent de l’IA est un problème et cela devrait être résolu par d’autres moyens, mais il s’agit toujours d’une technologie – toute amélioration que nous pouvons apporter pour simplifier la façon dont nous utilisons des systèmes sûrs et sécurisés est bénéfique à long terme. »
Source link