Les grandes entreprises technologiques s’engagent dans de nouvelles pratiques de sécurité pour l’IA

Comparaison avec d’autres engagements en matière de sécurité
Cet accord fait suite à un accord historique similaire entre l’UE, les États-Unis, la Chine et d’autres pays pour travailler ensemble sur la sécurité de l’IA. La dite Déclaration de Bletchleyréalisée lors du AI Safety Summit au Royaume-Uni en novembre, a établi une compréhension commune des opportunités et des risques posés par l’IA de pointe et a reconnu la nécessité pour les gouvernements de travailler ensemble pour relever les défis les plus importants associés à cette technologie.
L’une des différences entre les Frontier AI Safety Commitments et la Déclaration de Bletchley est évidente : le nouvel accord se situe au niveau organisationnel, tandis que la Déclaration de Bletchley a été adoptée par les gouvernements, suggérant ainsi un potentiel réglementaire plus important associé aux futures prises de décision autour de l’IA.
Les engagements Frontier permettent également « aux organisations de déterminer leurs propres seuils de risque », ce qui pourrait ne pas être aussi efficace que de les fixer à un niveau plus élevé qu’une autre de ces tentatives de réglementation de la sécurité de l’IA – la loi européenne sur l’IA – c’est le cas, a noté Maria Koskinen, responsable des politiques d’IA chez Saidot, fournisseur de technologies de gouvernance de l’IA.
« La loi européenne sur l’IA réglemente la gestion des risques liés aux modèles d’IA à usage général présentant des risques systémiques, [which]…sont uniques à ces modèles polyvalents à fort impact », a-t-elle déclaré.
Ainsi, là où les Frontier AI Safety Commitments laissent aux organisations le soin de définir leurs propres seuils, la loi européenne sur l’IA « fournit des orientations à ce sujet avec l’introduction de la définition du « risque systémique » », a noté Koskinen.
« Cela donne plus de certitude non seulement aux organisations qui mettent en œuvre ces engagements, mais aussi à celles qui adoptent des solutions d’IA et aux individus touchés par ces modèles », a-t-elle déclaré.
Source link