Fermer

avril 5, 2024

L’UE et les États-Unis conviennent de tracer une voie commune en matière de réglementation de l’IA

L’UE et les États-Unis conviennent de tracer une voie commune en matière de réglementation de l’IA



« La réglementation de l’IA nécessite des efforts conjoints de la part de la communauté internationale et des gouvernements pour convenir d’un ensemble de processus et d’agences réglementaires », a déclaré à CIO.com Angelo Cangelosi, professeur d’apprentissage automatique et de robotique à l’Université de Manchester en Angleterre.

« Le dernier accord entre le Royaume-Uni et les États-Unis constitue un pas dans la bonne direction, même si les détails des étapes pratiques ne sont pas encore tout à fait clairs à ce stade. Nous espérons cependant que cela se poursuivra à un niveau international plus large, par exemple avec l’intégration avec l’IA de l’UE. agences, ainsi que dans le cadre plus large des Nations Unies », a-t-il ajouté.

Risques d’utilisation abusive de l’IA

Le Dr Kjell Carlsson, responsable de la stratégie IA chez Domino Data Lab, a fait valoir que se concentrer sur la réglementation des offres commerciales d’IA perd de vue la menace réelle et croissante : l’utilisation abusive de l’intelligence artificielle par les criminels pour développer des contrefaçons profondes et des escroqueries par phishing plus convaincantes.

« Malheureusement, peu de réglementations proposées en matière d’IA, telles que la loi européenne sur l’IA, sont conçues pour lutter efficacement contre ces menaces, car elles se concentrent principalement sur les offres commerciales d’IA que les criminels n’utilisent pas », a déclaré Carlsson. « En tant que tel, bon nombre de ces efforts réglementaires nuiront à l’innovation et augmenteront les coûts, tout en faisant peu pour améliorer la sécurité réelle. »

« À ce stade du développement de l’IA, investir dans les tests et la sécurité est bien plus efficace que la réglementation », a soutenu Carlsson.

La recherche sur la manière de tester efficacement les modèles d’IA, d’atténuer leurs risques et d’assurer leur sécurité, menée par le biais des nouveaux instituts de sécurité de l’IA, représente un « excellent investissement public » pour garantir la sécurité tout en favorisant la compétitivité des développeurs d’IA, a déclaré Carlsson.

De nombreuses grandes entreprises utilisent l’IA pour analyser, transformer et même produire des données – des évolutions qui soulèvent déjà des défis juridiques sur de nombreux fronts.

Ben Travers, associé du cabinet juridique Knights et spécialisé dans les questions d’IA, de propriété intellectuelle et d’informatique, a expliqué : « Les entreprises devraient avoir une politique en matière d’IA, qui s’articule avec d’autres politiques pertinentes, telles que celles relatives à la protection des données, à la propriété intellectuelle et aux achats informatiques. La politique doit définir les règles selon lesquelles les employés peuvent (ou ne peuvent pas) s’engager avec l’IA.

Des cas récents ont sensibilisé les employeurs aux risques que courent les employeurs lorsque les employés téléchargent des informations autrement protégées ou confidentielles vers des outils d’IA, tandis que la technologie pose également des problèmes dans des domaines tels que la violation du droit d’auteur.

« Les entreprises doivent décider comment elles vont gérer ces risques, les refléter dans des politiques pertinentes et communiquer ces politiques à leurs équipes », a conclu Travers.




Source link