Les grandes entreprises technologiques s’engagent à adopter de nouvelles pratiques de sécurité pour l’IA

L’une des différences entre ce dernier accord conclu à Séoul et la Déclaration de Bletchley est évidente : le nouvel accord se situe au niveau organisationnel, tandis que la Déclaration de Bletchley a été adoptée par les gouvernements, suggérant un plus grand potentiel réglementaire associé à la future prise de décision autour de l’IA.
Les derniers engagements permettent également « aux organisations de déterminer leurs propres seuils de risque », ce qui pourrait ne pas être aussi efficace que de les fixer à un niveau plus élevé que le fait une autre de ces tentatives de réglementation de la sécurité de l’IA : la loi sur l’IA de l’UE. a déclaré Maria Koskinen, responsable de la politique en matière d’IA chez le fournisseur de technologies de gouvernance de l’IA Saidot.
« La loi européenne sur l’IA réglemente la gestion des risques des modèles d’IA à usage général comportant des risques systémiques, qui sont propres à ces modèles à usage général à fort impact », a-t-il déclaré.
Ainsi, même si les derniers engagements laissent aux organisations le soin de définir leurs propres limites, la loi européenne sur l’IA « fournit des orientations à cet égard avec l’introduction de la définition du « risque systémique » », a noté Koskinen. « Cela donne plus de sécurité non seulement aux organisations qui appliquent ces engagements, mais aussi à celles qui adoptent des solutions d’IA et aux personnes concernées par ces modèles. »
Guider les DSI vers la sécurité de l’IA
Cependant, Koskinen et d’autres ont convenu que ces engagements constituent un pas dans la bonne direction pour garantir que toute technologie d’IA développée par ceux qui les ont acceptés bénéficiera d’un certain niveau de sécurité. Cela crée également un précédent pour les futurs modèles d’IA et les innovations associées qui émergeront à mesure que la technologie évolue, a-t-il déclaré.
« Bien que ces engagements soient volontaires et non appliqués, ils créent un précédent pour d’autres organisations d’IA », a déclaré Koskinen. « J’espère que nous verrons d’autres emboîter le pas, bénéficiant à l’ensemble de la communauté de l’IA en créant un écosystème plus sûr et plus sécurisé pour l’innovation en IA. »
Source link