Fermer

mai 22, 2024

Les grandes entreprises technologiques s’engagent dans de nouvelles pratiques de sécurité pour l’IA

Les grandes entreprises technologiques s’engagent dans de nouvelles pratiques de sécurité pour l’IA



Comparaison avec d’autres engagements en matière de sécurité

Cet accord fait suite à un accord historique similaire entre l’UE, les États-Unis, la Chine et d’autres pays pour travailler ensemble sur la sécurité de l’IA. La dite Déclaration de Bletchleyréalisée lors du AI Safety Summit au Royaume-Uni en novembre, a établi une compréhension commune des opportunités et des risques posés par l’IA de pointe et a reconnu la nécessité pour les gouvernements de travailler ensemble pour relever les défis les plus importants associés à cette technologie.

L’une des différences entre les Frontier AI Safety Commitments et la Déclaration de Bletchley est évidente : le nouvel accord se situe au niveau organisationnel, tandis que la Déclaration de Bletchley a été adoptée par les gouvernements, suggérant ainsi un potentiel réglementaire plus important associé aux futures prises de décision autour de l’IA.

Les engagements Frontier permettent également « aux organisations de déterminer leurs propres seuils de risque », ce qui pourrait ne pas être aussi efficace que de les fixer à un niveau plus élevé qu’une autre de ces tentatives de réglementation de la sécurité de l’IA – la loi européenne sur l’IA – c’est le cas, a noté Maria Koskinen, responsable des politiques d’IA chez Saidot, fournisseur de technologies de gouvernance de l’IA.

« La loi européenne sur l’IA réglemente la gestion des risques liés aux modèles d’IA à usage général présentant des risques systémiques, [which]…sont uniques à ces modèles polyvalents à fort impact », a-t-elle déclaré.

Ainsi, là où les Frontier AI Safety Commitments laissent aux organisations le soin de définir leurs propres seuils, la loi européenne sur l’IA « fournit des orientations à ce sujet avec l’introduction de la définition du « risque systémique » », a noté Koskinen.

« Cela donne plus de certitude non seulement aux organisations qui mettent en œuvre ces engagements, mais aussi à celles qui adoptent des solutions d’IA et aux individus touchés par ces modèles », a-t-elle déclaré.




Source link