Fermer

août 13, 2018

Des chercheurs enseignent aux voitures autonomes à gérer les humains irrationnels



Une équipe de chercheurs a récemment déterminé que les conducteurs humains et les véhicules autonomes ont tendance à accorder la priorité à la sécurité de leur véhicule par rapport à ceux qui l'entourent. Les gens sont égoïstes et l'IA agit beaucoup comme les gens, ce qui signifie que la solution est la même pour tous: nous devons apprendre à faire preuve de courtoisie.

et des vies sont en jeu. Par exemple, nous ne voulons pas que les machines imitent notre rage – l’image d’un camion semi-plein qui se met en colère après avoir été coupé évoque des images du film «Maximum Overdrive».

Avez-vous visité blockchain et le site d'actualités crypto-monnaies?

On l'appelle Hard Fork.

Mais nous voulons que les machines imitent notre capacité à réagir aux imprévus. a bien documenté comment le logiciel de pilote automatique de Tesla – qui ne vise pas à remplacer un conducteur humain – n'a pas reconnu un gros camion parce qu'il était dans une direction imprévue et qu'il était peint en blanc. Il y a fort à parier que la plupart des conducteurs humains n'auraient pas commis la même erreur.

Alors, où est le juste milieu? Comment pouvons-nous faire des voitures sans conducteur non seulement mieux que nous, mais aussi mieux gérer notre comportement imparfait sur les routes? Selon les chercheurs de l’Université de Californie à Berkeley, nous changeons leurs motivations.

Dans un livre blanc publié récemment l’équipe déclare:

Nous proposons que des robots purement égoïstes sur leur sécurité et la qualité de conduite ne sont pas assez bons. Ils devraient également être courtois envers les autres conducteurs. Ceci est d'une importance cruciale puisque les humains ne sont pas parfaitement rationnels et que leur comportement sera influencé par l'agressivité des voitures robotisées. gêne occasionnée par l'augmentation du coût de l'autre conducteur due au comportement du robot pour capturer un aspect de l'irrationalité du comportement humain.

Il semble que la solution au problème serait simplement de prévoir une loi d'Asimov sur les voitures: les humains le droit de passage. Mais il est assez facile d'imaginer pourquoi ce n'est pas la meilleure réponse.

Les humains, comme nous l'avons déjà mentionné, sont égoïstes. Une fois que nous avons découvert que les véhicules autonomes ont toujours tendance à protéger les êtres humains, nous les exploiterons simplement – ou leur mécanisme de récompense plus spécifiquement – afin que nous puissions toujours aller en premier. Dans un monde plein de voitures sans conducteur, le conducteur humain serait toujours une priorité, ce qui signifie que rouler dans une voiture sans conducteur serait, au moins théoriquement, toujours plus lent et moins efficace.

Selon les chercheurs:

été un problème avec les approches qui prédisent les plans humains et y réagissent, car cela a conduit à des robots conservateurs qui essayent toujours de rester à l'écart et permettent aux gens de faire ce qu'ils veulent.

qui s'appuient sur les aspects théoriques de l'interaction, nos voitures commencent à devenir plus agressives. Ils ont coupé les gens ou les ont fait avancer légèrement aux intersections. Bien que ce comportement soit bon parfois, nous ne voudrions pas le voir tout le temps.

Fondamentalement, les robots qui ne font que se dégager et qui gardent toujours la porte ouverte ne parviendront jamais à rien. Et les robots qui tentent de maximiser leurs «récompenses» pour atteindre leurs «objectifs» finiront probablement par devenir plus agressifs au fur et à mesure qu'ils rassembleront davantage de données de conduite – comme les humains. Aucune solution ne semble optimale.

Pour résoudre ce problème, les chercheurs ont trouvé un moyen de mesurer et de quantifier le mécanisme de «courtoisie» utilisé par certains conducteurs humains. Après tout, nous ne sommes pas toujours à hurler dans les rues avec nos visages enterrés dans nos téléphones.

Le fonctionnement: les chercheurs utilisent des algorithmes pour effectuer des analyses coûts-avantages des actions potentielles conducteur humain et véhicule autonome. Ils prennent en compte trois scénarios distincts lorsqu'un conducteur humain interagit avec une voiture sans conducteur:

  1. Ce que l'homme pouvait faire s'il n'avait pas été là.
  2. Qu'est-ce que l'homme aurait pu faire?
  3. Ce que l'homme pouvait faire, si la voiture-robot ne faisait que continuer à faire ce qu'il faisait auparavant.

L'équipe transforme ces scénarios en un langage mathématique compréhensible par les ordinateurs et les algorithmes le reste. Essentiellement, ils ont défini et quantifié la courtoisie, et ont trouvé un moyen de faire en sorte que l'IA en tienne compte lors de la formation à l'optimisation. Au lieu de tout ou rien, les chercheurs enseignent à l'IA de trouver un milieu confortable entre agressif et passif en étant moins humain. Cela devrait permettre aux robots de gérer plus facilement les comportements irrationnels des humains lorsqu'ils conduisent.

Ce travail en est encore à ses débuts, mais devrait permettre de comprendre comment intégrer les pilotes humains et machine sans aggraver les problèmes que nous essayons de résoudre.

H / t: Import AI




Source link