Site icon Blog ARC Optimizer

Les drones vont bientôt décider qui tuer


L'US Army a récemment annoncé qu'elle développait les premiers drones capables de repérer et de cibler des véhicules et des personnes utilisant l'intelligence artificielle (IA). C'est un grand pas en avant. Alors que les drones militaires actuels sont encore contrôlés par les gens, cette nouvelle technologie décidera qui tuer sans presque aucune intervention humaine.

Une fois terminés, ces drones représenteront la militarisation ultime de l'IA et déclencheront de vastes implications juridiques et éthiques pour la société. Il y a une chance que la guerre passe du combat à l'extermination, perdant tout semblant d'humanité dans le processus. En même temps, cela pourrait élargir la sphère de la guerre pour que les compagnies, ingénieurs et scientifiques construisant l'IA deviennent des cibles militaires valables.

Les drones militaires létaux existants comme le MQ-9 Reaper sont soigneusement contrôlés. piloté par satellite. Si un pilote lâche une bombe ou tire un missile, un opérateur humain le guide activement sur la cible choisie à l'aide d'un laser.

Finalement, l'équipage a la responsabilité éthique, légale et opérationnelle de tuer les cibles humaines désignées. Comme l'affirme un opérateur de Reaper: "Je suis vraiment d'avis que je permettrais à un insurgé, même si c'est une cible importante, de s'enfuir plutôt que de prendre un risque qui pourrait tuer des civils."

Un pilote MQ-9 Reaper. US Air Force

Même avec ces tueries de drones les émotions humaines, les jugements et l'éthique sont toujours restés au centre de la guerre. L'existence d'un traumatisme mental et d'un trouble de stress post-traumatique (TSPT) chez les opérateurs de drones montre l'impact psychologique de l'assassinat à distance

ce qui révèle un argument militaire et éthique possible Ronald Arkin en faveur des drones tueurs autonomes. Peut-être que si ces drones larguent les bombes, les problèmes psychologiques parmi les membres d'équipage peuvent être évités. La faiblesse de cet argument est que vous n'avez pas à être responsable de tuer pour être traumatisé par cela. Des spécialistes du renseignement et d'autres membres du personnel militaire analysent régulièrement des images graphiques des frappes de drones. La recherche montre qu'il est possible de souffrir de dommages psychologiques en regardant fréquemment des images d'une violence extrême.

Un Faucheur MQ-9. US Air Force

Lorsque j'ai interviewé plus de 100 membres d'équipage Reaper pour un prochain livre, chaque personne à qui j'ai parlé qui a mené des frappes mortelles de drones croyait que, finalement, ce serait un humain qui déclencherait le dernier déclencheur. Sortez l'humain et vous prenez aussi l'humanité de la décision de tuer.

Conséquences graves

La perspective de drones totalement autonomes modifierait radicalement les processus complexes et les décisions derrière les tueries militaires. Mais la responsabilité juridique et éthique ne disparaît pas d'une manière ou d'une autre si vous supprimez la surveillance humaine. Au lieu de cela, la responsabilité tombera de plus en plus sur d'autres personnes, y compris les scientifiques de l'intelligence artificielle.

Les implications juridiques de ces développements sont déjà évidentes. En vertu du droit international humanitaire les installations à «double usage» – celles qui développent des produits à la fois pour des applications civiles et militaires – peuvent être attaquées dans les bonnes circonstances. Par exemple, lors de la guerre du Kosovo de 1999, la raffinerie de Pancevo a été attaquée parce qu'elle pouvait alimenter des chars yougoslaves et alimenter des voitures civiles

. presque certainement être classé comme à double usage. Des entreprises comme Google, ses employés ou ses systèmes pourraient devenir la cible d'attaques d'un État ennemi. Par exemple, si le logiciel de reconnaissance d'image Project Maven de Google est incorporé dans un drone autonome militaire américain, Google pourrait se retrouver impliqué dans le drone "tuant" comme tous les autres civils. contributeur à de tels systèmes autonomes létaux.

Siège social de Google à New York. Scott Roy Atwood CC BY-SA

Ethiquement, il y a encore des questions plus sombres encore.

Le but des algorithmes d'auto-apprentissage – des programmes qui apprennent indépendamment des données qu'ils peut collecter – que la technologie utilise est qu'ils deviennent meilleurs à n'importe quelle tâche qui leur est donnée. Si un drone autonome mortel doit améliorer son travail par l'auto-apprentissage, quelqu'un devra décider d'un stade de développement acceptable – combien il doit encore apprendre – pour pouvoir le déployer. Dans l'apprentissage militaire militarisé, cela signifie que les dirigeants politiques, militaires et industriels devront spécifier combien de morts civiles seront considérées comme acceptables à mesure que la technologie est affinée.

Les expériences récentes d'IA autonome dans la société devraient servir d'avertissement. Uber et Les expériences mortelles de Tesla sur des voitures sans chauffeur suggèrent qu'il est pratiquement certain qu'il y aura des morts de drones autonomes non intentionnels à mesure que les bogues informatiques seront éliminés.

meurt, surtout à grande échelle, alors nous assistons à l'extermination. Tout gouvernement ou armée qui déchaînerait de telles forces violerait toutes les valeurs qu'elle prétend défendre. En comparaison, un drone pilote luttant avec une décision de «tuer ou ne pas tuer» devient le dernier vestige de l'humanité dans les affaires souvent inhumaines de la guerre.

Cet article a été amendé pour clarifier que Uber et Tesla ont tous deux entrepris des expériences mortelles avec des voitures autonomes, plutôt qu'Uber expérimentant avec une voiture Tesla comme indiqué à l'origine.

Peter Lee Directeur, Sécurité et risque & Lecteur en politique et en éthique, Université de Portsmouth

Cet article a été publié à l'origine le The Conversation . Lisez l'article original .




Source link
Quitter la version mobile