Fermer

mai 30, 2022

Pourquoi les tribunaux ont besoin d’une « IA explicable » lorsque des voitures autonomes s’écrasent

Pourquoi les tribunaux ont besoin d’une « IA explicable » lorsque des voitures autonomes s’écrasent


Le premier accident grave impliquant une voiture autonome en Australie s’est produit en mars de cette année. Un piéton a subi des blessures mettant sa vie en danger lorsque percuté par une Tesla Model 3qui, selon le conducteur, était en mode « pilote automatique ».

Aux États-Unis, le régulateur de la sécurité routière enquête sur un série d’accidents où Teslas sur pilote automatique s’est écrasé dans des véhicules de premiers secours avec des feux clignotants pendant les arrêts de la circulation.

Une Tesla modèle 3 entre en collision avec un véhicule d’intervention d’urgence à l’arrêt aux États-Unis.
NBC / YouTube

Les processus décisionnels des voitures « autonomes » sont souvent opaque et imprévisible (même à leurs fabricants), il peut donc être difficile de déterminer qui devrait être tenu responsable d’incidents comme ceux-ci. Cependant, le domaine croissant de «l’IA explicable» peut aider à fournir des réponses.

Qui est responsable en cas d’accident de voiture autonome ?

Bien que les voitures autonomes soient nouvelles, ce sont toujours des machines fabriquées et vendues par les fabricants. Lorsqu’ils causent des dommages, nous devons nous demander si le fabricant (ou le développeur du logiciel) a rempli ses responsabilités en matière de sécurité.

Le droit moderne de la négligence est issu de la célèbre affaire de Donoghue contre Stevenson, où une femme a découvert un escargot en décomposition dans sa bouteille de bière au gingembre. Le fabricant a été jugé négligent, non pas parce qu’il était censé prédire ou contrôler directement le comportement des escargots, mais parce que son processus d’embouteillage n’était pas sûr.

Selon cette logique, les fabricants et les développeurs de systèmes basés sur l’IA comme les voitures autonomes pourraient ne pas être en mesure de prévoir et de contrôler tout ce que le « autonome” le fait, mais ils peuvent prendre des mesures pour réduire les risques. Si leurs pratiques de gestion des risques, de tests, d’audits et de surveillance ne sont pas suffisamment bonnes, ils doivent en être tenus responsables.

Quelle est la gestion des risques suffisante ?

La question difficile sera « Combien de soins et quelle quantité de gestion des risques suffisent ? » Dans les logiciels complexes, il est impossible de tester pour chaque bogue à l’avance. Comment les développeurs et les fabricants sauront-ils quand s’arrêter ?

Heureusement, les tribunaux, les régulateurs et les organismes de normalisation technique ont de l’expérience dans l’établissement de normes de prudence et de responsabilité pour des activités risquées mais utiles.

Les normes pourraient être très exigeantes, comme celles de l’Union européenne projet de règlement sur l’IA, qui exige de réduire les risques « autant que possible » sans égard au coût. Ou ils peuvent ressembler davantage à la loi australienne sur la négligence, qui permet une gestion moins stricte pour des risques moins probables ou moins graves, ou lorsque la gestion des risques réduirait le bénéfice global de l’activité risquée.

Les affaires juridiques seront compliquées par l’opacité de l’IA

Une fois que nous avons une norme claire pour les risques, nous avons besoin d’un moyen de l’appliquer. Une approche pourrait consister à donner à un régulateur le pouvoir d’imposer des sanctions (comme le fait l’ACCC dans les affaires de concurrence, par exemple).

Les personnes lésées par IA les systèmes doivent également pouvoir intenter des poursuites. Dans les affaires impliquant des voitures autonomes, les poursuites contre les constructeurs seront particulièrement importantes.

Cependant, pour que de telles poursuites soient efficaces, les tribunaux devront comprendre en détail les processus et les paramètres techniques des systèmes d’IA.

Les fabricants préfèrent souvent ne pas révéler ces détails pour des raisons commerciales. Mais les tribunaux ont déjà des procédures pour équilibrer les intérêts commerciaux avec une quantité appropriée de divulgation pour faciliter les litiges.

Un plus grand défi peut survenir lorsque les systèmes d’IA eux-mêmes sont opaques « boîtes noires”. Par exemple, la fonctionnalité de pilote automatique de Tesla repose sur « réseaux de neurones profonds”, un type populaire de système d’IA dans lequel même les développeurs ne peuvent jamais être tout à fait sûrs de comment ou pourquoi il arrive à un résultat donné.

L’« IA explicable » à la rescousse ?

Ouvrir la boîte noire des systèmes d’IA modernes est au centre d’une Nouveau vague de l’informatique et des sciences humaines savants: le mouvement dit « IA explicable ».

L’objectif est d’aider les développeurs et les utilisateurs finaux à comprendre comment les systèmes d’IA prennent des décisions, soit en modifiant la façon dont les systèmes sont construits, soit en générant des explications après coup.

Dans un exemple classique, un système d’IA classe par erreur une photo d’un husky comme un loup. Une méthode « d’IA explicable » révèle le système centré sur la neige en arrière-plan de l’image, plutôt que sur l’animal au premier plan.

(À droite) Une image d'un husky devant un fond enneigé.  (À gauche) Une méthode d'« IA explicable » montre sur quelles parties de l'image le système d'IA s'est concentré lors de la classification de l'image en tant que loup.

La manière dont cela pourrait être utilisé dans le cadre d’un procès dépendra de divers facteurs, notamment la technologie d’IA spécifique et les dommages causés. L’une des principales préoccupations sera le degré d’accès de la partie lésée au système d’IA.

L’affaire Trivago

Notre nouvelle recherche l’analyse d’une importante affaire judiciaire australienne récente donne un aperçu encourageant de ce à quoi cela pourrait ressembler.

En avril 2022, la Cour fédérale a sanctionné la société mondiale de réservation d’hôtels Trivago de 44,7 millions de dollars pour avoir induit les clients en erreur sur les tarifs des chambres d’hôtel sur son site Web et dans la publicité télévisée, après une affaire intentée par chien de garde de la concurrence l’ACCC. Une question cruciale était de savoir comment l’algorithme de classement complexe de Trivago choisissait l’offre la mieux classée pour les chambres d’hôtel.

La Cour fédérale a établi des règles pour la découverte de preuves avec des garanties pour protéger la propriété intellectuelle de Trivago, et l’ACCC et Trivago ont appelé des témoins experts pour fournir des preuves expliquant le fonctionnement du système d’IA de Trivago.

Même sans un accès complet au système de Trivago, le témoin expert de l’ACCC a été en mesure de produire des preuves convaincantes que le comportement du système n’était pas conforme à la prétention de Trivago d’offrir aux clients le « meilleur prix ».

Cela montre comment les experts techniques et les avocats peuvent surmonter ensemble l’opacité de l’IA dans les affaires judiciaires. Cependant, le processus nécessite une collaboration étroite et une expertise technique approfondie, et sera probablement coûteux.

Les régulateurs peuvent prendre des mesures dès maintenant pour rationaliser les choses à l’avenir, comme exiger des entreprises d’IA qu’elles documentent adéquatement leurs systèmes.

La route devant

Véhicules avec divers degrés d’automatisation sont de plus en plus courants, et des taxis et des bus entièrement autonomes sont testés à la fois en Australie et à l’étranger.

Garder nos routes aussi sûres que possible nécessitera une collaboration étroite entre l’intelligence artificielle et les experts juridiques, et les régulateurs, les fabricants, les assureurs et les utilisateurs auront tous un rôle à jouer.La conversation

Cet article de Aaron J. SnoswellChercheur post-doctoral, Computational Law & AI Accountability, Université de technologie du Queensland; Henri Fraserchercheur en droit, responsabilité et science des données, Université de technologie du Queenslandet Rhyle SimcockDoctorant, Université de technologie du Queensland est republié de La conversation sous licence Creative Commons. Lis le article original.




Source link