Fermer

décembre 14, 2018

L'Europe a besoin d'une nouvelle approche pour réguler l'intelligence artificielle


La Commission européenne élabore actuellement un ensemble de lignes directrices visant à déterminer les interactions entre les humains et l'IA, qu'elle a promis de publier avant la fin de l'année.


8 min de lecture

Les opinions exprimées par les contributeurs de l'Entrepreneur sont les leurs.


Quand beaucoup de gens pensent à l'intelligence artificielle, c'est dans un scénario de science-fiction, Terminator ou 2001 . Les "lois de la robotique" de l'auteur de science-fiction révolutionnaire Isaac Asimov sont souvent tracées comme modèle possible pour une législation future.

Related: Pourquoi l'Europe s'imposera-t-elle au sommet de la course aux technologies entre les États-Unis et la Chine

] On peut définir de manière générale l'IA comme étant la technologie qui imite une intelligence semblable à celle d'un être humain. Cependant, bien que nous soyons loin de la conscience artificielle de Hollywood et de la superproduction de pulp fiction, la première loi d'Asimov n'est pas vraiment un mauvais point de départ: "Un robot ne peut pas blesser un être humain ou l'inaction, permettre à un être humain de venir à nuire ". En effet, la députée européenne et auteure du rapport du Parlement européen sur l'intelligence artificielle, Mady Delvaux mentionnait ces lois dans son rapport initial.

Cela a conduit de nombreuses approches de la réglementation de l'IA en mettant l'accent sur la responsabilité et le consommateur. La protection, qui est certes extrêmement importante, mais ne constitue pas tout l’histoire.

L’Europe se concentre sur la création de ces directives, mais notre organisation chargée de l’éthique dans la technologie, le Good Technology Collective ( GTC), estime que nous devons également nous concentrer sur des mesures de responsabilité dont personne ne parle encore. Par exemple, à quoi servent les réglementations s'il n'y a pas de réelle responsabilité? Certaines entreprises technologiques internationales ont du mal à se soustraire ou à éviter les réglementations qu'elles jugent onéreuses. Les législateurs doivent commencer à se demander comment ils peuvent s'assurer que leurs entreprises sont tenues pour responsables.

La ​​technologie crée déjà un grand nombre de problèmes aujourd'hui, avant même d'introduire de nombreux cas d'intelligence artificielle, y compris, mais sans limitation. à: l'évasion fiscale, la protection des consommateurs, les structures monopolistiques, le jeu et l'impact social négatif, comme on le voit avec de fausses nouvelles et des élections. Nous devons examiner l'impact plus général de la technologie sur la vie humaine avant qu'elle ne devienne une question de droits de l'homme.

Si je construis un pont qui n'est pas sécurisé, je suis tenu pour responsable. Les journalistes et les médecins sont auto-gouvernés par un ensemble important de codes éthiques et moraux auxquels ils sont censés adhérer. Mais, cela ne semble pas être le cas pour la technologie. La réglementation accuse déjà un retard de plusieurs décennies. S'attaquer au problème d'un soulèvement de robot théorique dans un avenir lointain ne résout pas le présent.

A la suite: Les entreprises européennes doivent adopter l'automatisation avant qu'il ne soit trop tard

Le GTC estime que l'Europe doit réfléchir à la nécessité de mettre en place une réglementation de portée mondiale, et que l'éthique en fasse partie intégrante – pourquoi ne pas concevoir une charte des Nations Unies pour l'interaction entre l'homme et la technologie, ou une organisation judiciaire internationale "d'éthique de la technologie" telle que la Cour pénale internationale?

Nous pensons bien sûr qu'une bonne réglementation peut aider. Par exemple, le GDPR a déjà eu un impact important en exposant les violations de sécurité, les fuites massives et les pratiques de vente de données.

Dans un rapport publié en septembre, le Comité économique et social européen (CESE) a invité la Commission à "définir le rapport entre l'homme et la machine, l'autonomie dont jouissent les ces dernières peuvent être et comment elles compléteront le travail des êtres humains ", et l'ont instamment invité à aborder ces questions dans les principes éthiques.

" L'UE doit veiller à ce que la révolution de l'IA ne mette pas en danger la qualité du travail en Europe Les interactions entre les travailleurs et les machines doivent être réglées de manière à ce que les hommes ne deviennent jamais des machines ", a déclaré le CESE .

Bien entendu, personne ne prétend de manière réaliste que l'IA, l'apprentissage et la décision des machines Les algorithmes de fabrication ne présentent pas un potentiel énorme pour la société: l'IA peut soulager les travailleurs de tâches ennuyeuses, répétitives et dangereuses; accélérer le diagnostic médical; réduire les redondances dans la fabrication et même améliorer notre temps social en suggérant simplement la bonne chanson.

Mais il existe également des dangers plus vastes – et pas seulement le risque d'être heurté par une voiture autonome ou par un drone en panne. L'application d'algorithmes transparents à des décisions sensibles telles que la détermination de la peine, le recrutement, l'accès aux soins de santé, l'immigration ou l'asile risque de renforcer la discrimination.

Lié: Briser les mythes concernant le secteur technologique européen

De retour en mai, Access Now et Amnesty ont lancé une déclaration commune sur les droits de l'homme et l'intelligence artificielle chez RightsCon 2018. Cette déclaration est axée sur le droit à l'égalité et à la non-discrimination. Elle est également approuvée par Human Rights Watch et la Wikimedia Foundation.

Estelle Massé, analyste principale des politiques à Access Now, a expliqué que les secteurs public et privé doivent œuvrer pour la promotion et le respect des droits de l'homme à l'ère numérique, en particulier à la lumière des "preuves de plus en plus nombreuses des dommages discriminatoires causés par la machine". systèmes d'apprentissage. "

La ​​déclaration vise à s'établir comme un cadre d'éthique mondial largement accepté, juridiquement contraignant et doté d'instruments juridiques complets. retard dans la plupart des pays européens. Il y a une bonne et claire raison à cela: la plupart des politiciens ne comprennent pas l'IA ni l'apprentissage automatique. Les grandes entreprises technologiques ont, avec une certaine validité, fait valoir que les gouvernements ne devaient pas s'empresser de réglementer quelque chose qu'ils – et même de plus en plus les technologues – ne comprenaient pas.

La ​​Commission européenne, pour sa part, souhaite que l'UE devienne le leader mondial de l'IA éthiquement responsable . Selon Amnesty International, l'IA dispose d'un potentiel considérable pour stimuler l'économie européenne si elle pouvait être "mise … au service des citoyens européens et dynamisera la compétitivité de l'Europe tout en garantissant les normes européennes les plus élevées en matière de protection des données à caractère personnel". 19659007] Mais cela coûte de l'argent. En avril, le vice-président pour le marché unique numérique, Andrus Ansip, a déclaré que l'UE devait investir au moins 20 milliards d'euros d'ici la fin de 2020 . Plaçant son argent à bon escient, la Commission augmente son investissement à de 1,5 milliard d'euros pour la période 2018-2020 dans le cadre du programme de recherche et d'innovation Horizon 2020 . Cet investissement devrait générer 2,5 milliards d'euros supplémentaires provenant de partenariats public-privé existants, par exemple dans les domaines du Big Data et de la robotique.

L'UE ne dispose pas du même niveau de financement que les États-Unis ou la Chine. soit rectifié, fit remarquer Delvaux.

Related: Pourquoi l'Europe fait face à une crise des compétences numériques

La Commission encourage les États membres à moderniser leurs systèmes d'éducation et de formation et à soutenir les transitions du marché du travail en s'appuyant sur le pilier européen des droits sociaux. 19659007] "Comme pour toute technologie de transformation, l'intelligence artificielle peut soulever de nouvelles questions éthiques et juridiques, liées à la responsabilité ou à une prise de décision potentiellement biaisée. Les nouvelles technologies ne doivent pas signifier de nouvelles valeurs. La Commission présentera des principes éthiques concernant le développement de l'IA d'ici la fin de l'année. 2018, sur la base de la Charte des droits fondamentaux de l'UE, prenant en compte des principes tels que la protection des données et la transparence, et s'appuyant sur les travaux du Groupe européen d'éthique des sciences et des nouvelles technologies ", a déclaré la Commission.

Cependant, Pekka On sait que Ala-Pietilä, ancien président de Nokia et entrepreneur en technologies, qui dirige le groupe d'experts de la Commission sur l'IA, ] qu’aucune réglementation n’est préférable à une mauvaise réglementation, les lignes directrices ne seront que cela – guide sur la manière de se comporter, et non sur des règles fixant des sanctions.

Mais, l’IA est une technologie polyvalente, et son développement relève déjà d'autres propositions législatives. Le RGPD fixe déjà les règles relatives à l'innovation fondée sur les données et la Commission s'est également engagée à mettre à jour l'interprétation de la directive relative à la responsabilité du fait des produits d'ici mi-2019 à la lumière des développements technologiques.

"L'UE doit immédiatement saisir Nous voyons déjà différents États membres adopter des législations nationales mettant en péril notre cohésion et risquant de fracturer notre marché. La Commission européenne a promis de présenter des propositions législatives l'année prochaine, mais c'est déjà trop tard ", a averti Delvaux.

La ​​Commission européenne a identifié plusieurs domaines clés pour les consommateurs, tels que le risque de discrimination, le manque d'informations et le contrôle des données.

Droits des consommateurs européens Le groupe BEUC a demandé à la Commission de mettre en œuvre certaines règles spécifiques notamment: "Un ensemble d'obligations de transparence visant à informés lors de l'utilisation de produits et services basés sur l'intelligence artificielle, en particulier sur le fonctionnement des algorithmes impliqués et sur les droits d'objectiver des décisions automatisées; normes de sécurité spécifiques pour les produits d'IA et pouvoirs adéquats pour les autorités de surveillance du marché afin que des produits ou des services d'IA dangereux ou potentiellement dangereux ne soient pas commercialisés; et des règles actualisées sur la responsabilité du fait des produits afin de mieux protéger les consommateurs s’ils subissent des dommages en raison de produits utilisant la technologie de l’IA. "

Mais si l’UE veut vraiment devenir un leader mondial, elle doit commencer à réparer les Les problèmes auxquels nous sommes confrontés aujourd'hui avec les géants de la technologie doivent être résolus avant que nous puissions penser à l'avenir. Et quelles que soient les solutions que nous proposons, elles doivent être fondées sur des preuves. Sinon, nous aurons une réglementation qui ne logique, soutient les géants de la technologie dans leur croissance effrénée et paralyse l’innovation.




Source link