Fermer

février 8, 2024

Rapport : les géants de l’IA s’impatientent face aux tests de sécurité britanniques

Rapport : les géants de l’IA s’impatientent face aux tests de sécurité britanniques



Les principales entreprises d’IA ont demandé au gouvernement britannique d’accélérer les tests de sécurité de leurs systèmes, soulevant des questions sur les futures initiatives gouvernementales qui pourraient également dépendre de l’ouverture des modèles d’IA générative aux tests avant que de nouvelles versions ne soient rendues publiques.

OpenAI, Google DeepMind, Microsoft et Meta font partie des entreprises qui ont accepté d’autoriser le nouvel AI Safety Institute (AISI) du Royaume-Uni à évaluer leurs modèles, mais elles ne sont pas satisfaites du rythme actuel ou de la transparence de l’évaluation, selon un rapport publié » dans le Financial Times, qui cite des sources proches des entreprises.

Malgré leur volonté de modifier les modèles si l’AISI découvre des failles dans leur technologie, les sociétés n’ont aucune obligation de modifier ou de retarder la publication de la technologie en fonction des résultats des tests, ont indiqué les sources.

Selon le rapport, les entreprises s’opposent à l’évaluation de l’AISI, notamment en souhaitant plus de détails sur les tests qui sont effectués, combien de temps ils prendront et comment fonctionnera le processus de retour d’information. Il n’est pas non plus clair si les tests devront être soumis à chaque fois qu’il y aura même une légère mise à jour du modèle, ce que les développeurs d’IA pourraient trouver trop onéreux à considérer.

Processus trouble, résultats troubles

Les réserves des fournisseurs d’IA semblent valables, étant donné que les détails sur le fonctionnement réel de l’évaluation sont flous. Et comme d’autres gouvernements envisagent des évaluations similaires de la sécurité de l’IA, toute confusion actuelle avec le processus britannique ne fera que croître à mesure que d’autres organismes gouvernementaux formuleront les mêmes exigences, pour l’instant, volontaires envers les développeurs d’IA.

Le gouvernement britannique a déclaré que les tests des modèles d’IA avaient déjà commencé grâce à la collaboration avec leurs développeurs respectifs, selon le Financial Times. Les tests sont basés sur l’accès à des modèles d’IA performants pour les tests de pré-déploiement – ​​même des modèles inédits, tels que Gemini Ultra de Google – qui était l’un des accords clés signés par les entreprises lors de l’événement. Sommet britannique sur la sécurité de l’IA en novembre, selon le rapport.




Source link