Fermer

avril 9, 2018

Systèmes d'armes autonomes mortels lors des première et deuxième réunions du GGE aux États-Unis


Basé sur les tendances dans l'avancement de la technologie robotique, de nombreux experts croient que les robots autonomes, voire mortels, sont . Bien que les capacités des technologies futures en raison de la complexité de la tâche à exécuter et de l'environnement dans lequel cette technologie opère, il est assez clair à des armes pleinement autonomes.

En conséquence, de nombreux experts États et groupes d'intérêt – y compris la coalition internationale, – ont une limite au développement de systèmes d'armes létaux autonomes (LAWS). En date du 16 novembre 2017, vingt-deux pays une interdiction des lois; ni les États-Unis ni le Royaume-Uni. . L'été dernier, les entreprises de technologie ont emboîté le pas, avec des PDG dont Elon Musk signant une lettre ouverte . Cette lettre avertissait que LAWS "

En décembre 2016, la cinquième Conférence d'examen des Hautes Parties contractantes à la CCW établir un groupe d'experts gouvernementaux (GGE) sur les lois. Du 13 au 17 novembre 2017, les Nations Unies ont tenu leur première réunion de la Convention sur certaines armes classiques sur les systèmes d'armes létales autonomes; la deuxième réunion aura lieu du 9 au 13 avril. Le GGE a pour mandat d'examiner les technologies émergentes dans le domaine des LOIS, dans le contexte des objectifs et des buts de la CCW, et en vue d'identifier les règles et principes applicables

Ce poste traite de l'état actuel du droit, résumant les développements techniques et juridiques, ainsi que le premier GGE sur les lois, axé sur quatre dimensions du droit: technique; militaire; juridique et éthique; et transversal. Le post conclut avec ce qu'il faut attendre dans le deuxième GGE sur les lois, à partir du 9 avril.

Qu'est-ce qu'un système d'armes létales autonomes?

Bien que les États ne se soient pas entendus sur une définition du droit, le Comité international de la Croix-Rouge (CICR) sur les possibilités actuelles de recherche et de développement entourant une augmentation de l'autonomie technologique, le DoD trois domaines techniques multidisciplinaires sur lesquels repose l'autonomie: la perception, la cognition et l'action.

Etat actuel du développement

Rapport d'une réunion d'experts du CICR en 2014, identifie les armes défensives terrestres et terrestres systèmes et systèmes de canons fixes comme exemples de systèmes d'armes autonomes actuellement utilisés. Ces systèmes d'armes fonctionnent dans des rôles stationnaires, avec différents degrés de surveillance humaine. Lawfare contribuant éditeur et chercheur senior à l'Institut international d'informatique, Nicholas Weaver, les armes autonomes ne sont pas une «menace hypothétique demain», mais plutôt «une menace réelle aujourd'hui». En plus de discuter de ce que cela ressemblerait Weaver conçoit et fabrique de telles armes, souligne également la manière dont les cartels de la drogue ont commencé à produire des véhicules aériens sans pilote armés (UAV), et l'État islamique a commencé à s'y adapter. des drones dans des bombardiers . Le CICR que «les systèmes d'armes existants, y compris les aéronefs habités et les systèmes d'armes défensives, sont dotés de capacités rudimentaires permettant de distinguer [sic] des objets simples dans des environnements relativement prévisibles et statiques.» [19659002] La stratégie de la troisième compensation des États-Unis est au cœur de l'approche américaine en matière de développement de LAWS. La troisième stratégie de compensation est un effort du DoD sur les moyens de compenser les avancées des concurrents proches des pairs, permettant aux États-Unis de maintenir leur domination militaire. Alors que les premières et deuxièmes stratégies de compensation ont été développées pour contrer la supériorité conventionnelle soviétique (la stratégie New Look du président Eisenhower au début des années 1950) et la supériorité nucléaire soviétique (le secrétaire à la Défense Harold Brown et la 1970), cette troisième stratégie de compensation est davantage axée sur le maintien de l'avantage concurrentiel actuel des États-Unis et de leurs alliés militaires. L'ancien secrétaire adjoint à la défense, Robert Work, que la troisième stratégie de compensation du DoD: «Il suppose essentiellement que les progrès de l'intelligence artificielle et de l'autonomie – systèmes autonomes [sic] conduiront à une nouvelle »Work cinq domaines de développement clés sur lesquels la troisième stratégie de compensation est axée: 1) les systèmes d'apprentissage autonomes (« learning machines »); 2) la prise de décision collaborative homme-machine; 3) les opérations humaines assistées; 4) les opérations avancées de systèmes habités sans équipage («Combat humain-machine»); et 5) des armes autonomes activées sur le réseau et des projectiles à grande vitesse. En mars 2017, le Centre d'études stratégiques et internationales a rédigé évaluant la troisième stratégie de compensation.

Cadre juridique

Bien qu'aucune loi ne traite expressément du droit, la Cour internationale de justice a précisé dans son que le droit international humanitaire [p] définit l'ensemble du droit des conflits armés et s'applique à toutes les formes de guerre et à toutes les sortes d'armes, celles du passé, celles du présent et celles de l'avenir. La Convention des Nations Unies sur certaines armes classiques est un forum approprié dans lequel les États peuvent chercher à changer le cadre juridique des lois.

The connue officiellement comme la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes conventionnelles. Qui peut être considéré comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination, conclu à Genève en octobre 1980 et entré en vigueur en décembre 1983. Le CCW a été adopté restreindre les armes "c Bien que les Protocoles de la CCW ne s'appliquaient qu'aux conflits armés internationaux, depuis la deuxième Conférence d'examen en 2001, le champ d'application de la CCW pour s'appliquer également dans les conflits armés non internationaux. En plus de réglementer les comportements durant les conflits armés, les Protocoles II et V exigent des parties à un conflit qu'elles prennent des mesures spécifiques après les conflits pour réduire les dangers posés par les mines, pièges et autres formes de munitions non explosées et abandonnées. [19659002] L'une des caractéristiques les plus importantes de la CCW est sa capacité à être développée en réponse au développement de nouvelles armes en permettant aux États parties d'annexer des protocoles à la Convention. Cinq protocoles- ; ; ; et est actuellement annexé à la Convention sur certaines armes classiques. L'ajout de ces protocoles signifie que le CCW couvre les fragments non détectables, les mines antipersonnel, les pièges, les armes incendiaires, les armes laser aveuglantes et l'enlèvement des restes explosifs de guerre

Notamment, les États-Unis ne sont pas parties au Protocole II. et a soumis une réserve au Protocole III, réservant "le droit d'utiliser des armes incendiaires contre des objectifs militaires situés dans des concentrations de civils où il est jugé qu'une telle utilisation causerait moins de victimes et / ou moins de dommages collatéraux que la coordinatrice de la Campagne pour arrêter les robots tueurs, Mary Wareham, beaucoup ont rejeté cette réserve comme étant incompatible avec l'objet et le but de la CCW.

Une approche proposée de la question de savoir comment les décideurs politiques, les avocats , les forces armées, etc devraient conceptualiser la responsabilité de l'autonomie technique par rapport à la guerre est . Dustin Lewis, Naz Modirzadeh et Gabriella Blum du définissent un algorithme de guerre comme "[a] ny algorithme qui s'exprime en code informatique, qui est effectué par un »Lewis, Modirzadeh et Blum ancrent la responsabilité de l'algorithme de guerre dans la responsabilité de l'État pour un fait internationalement illicite, dans la responsabilité individuelle en vertu du droit international pour les crimes internationaux, et dans un contexte plus large, l'industrie et d'autres formes d'examen, de surveillance et de réglementation. Des systèmes algorithmiques complexes sous-tendent de plus en plus d'aspects de la guerre, y compris la navigation et l'utilisation de véhicules maritimes, aériens et terrestres sans pilote; en produisant des estimations de dommages collatéraux; en déployant des systèmes de missiles "fire and forget"; en utilisant des systèmes stationnaires (par exemple, des systèmes d'armes rapprochés); et en concevant des cyberopérations capables de produire des effets cinétiques. Mais l'approche redditionnelle des algorithmes de guerre se plie aussi à la manière dont les procédures de calcul sont susceptibles de façonner aussi beaucoup d'autres éléments de la guerre, comme dans l'allocation des secours humanitaires; dans la détermination de qui peut être privé de liberté (et pour combien de temps); et même dans la fourniture de conseils juridiques aux forces armées. Pour en savoir plus sur les algorithmes de guerre, voir leur rapport ainsi que les articles Lawfare sur le sujet et . Le dernier lien inclut une discussion sur l'équipe interfonctionnelle de guerre algorithmique .

fournit un bref extrait de Lawfare contribuant aux éditeurs Kenneth Anderson et Matthew Waxman des débats juridiques et éthiques entourant LAWS. Le CICR a publié récemment sur la question de savoir si les principes d'humanité et les principes de conscience publique tirés de la clause Martens de la deuxième Convention de La Haye peuvent permettre de substituer efficacement la prise de décision humaine. avec des processus contrôlés par ordinateur. Human Rights Watch, en collaboration avec la Clinique internationale des droits de l'homme de Harvard, a publié trois rapports sur la façon dont les lois devraient être interdites préventivement à certains éléments du droit des droits de la personne; et créer s'ils étaient fabriqués et déployés.

Première réunion du GGE sur les lois

L'ONU a tenu son premier groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes du 13 au 17 novembre, en s'appuyant sur les discussions de . L'ambassadeur Amandeep Singh Gill de l'Inde a présidé la réunion, à l'avance de laquelle il a soumis . Le GGE a entendu des présentations dans des panels portant sur les différentes dimensions du débat sur les LAWS: 1) la dimension technologique; 2) la dimension des effets militaires; 3) les dimensions juridiques / éthiques; 4) Questions transversales. L'ONU a publié de la procédure le 22 décembre 2017. Le résumé ci-dessous de la réunion contient des informations trouvées dans le rapport de l'ONU, et produit par (WILPF) .

Échange général de vues

Les 13 et 15 novembre, le GGE a tenu des réunions comprenant un «échange de vues général». Rapport sur la réunion du 13 novembre, ONG Atteindre une Volonté Critique l'écart entre la façon dont presque tous les participants ont exprimé des inquiétudes au sujet des LOIS, mais seulement vingt-deux États ont jusqu'ici exprimé leur volonté et leur désir d'interdire préventivement leur développement et leur déploiement. Comme la France et l'Allemagne l'ont suggéré dans leur document de travail l'une des façons dont les États pourraient relever les défis posés par le développement potentiel des LOIS serait de créer une déclaration politique affirmant le en ce qui concerne la force létale. Selon le rapport CCW l'UE, la Belgique, l'Espagne et la Suisse ont indiqué un soutien préliminaire à une telle déclaration politique. Malgré cela, l'UE – en plus de l'Australie et du Cambodge – préfère encourager des examens nationaux transparents des armes, qui pourraient à leur tour permettre aux États d'échanger des informations et des meilleures pratiques issues de ces examens.

L'échange de points de vue du 13 novembre portait sur l'importance du maintien du contrôle humain sur les systèmes d'armes, y compris le contrôle de la sélection et de l'engagement des cibles. Un autre risque général mis en évidence par un certain nombre de pays incluait celui de la prolifération, et peut-être même une course aux armements autonome.

Couvrant la réunion du 15 novembre, Reaching Critical Will que les vues sur les définitions de la technologie ou les systèmes ont continué à différer. Par exemple, l'Argentine a encouragé l'adoption d'une définition précise et sans équivoque, tandis que le Comité international pour le contrôle des armes de robot a proposé de définir les systèmes d'armes qui, une fois lancés, peuvent sélectionner des cibles et appliquer une force violente. s'accordent sur le fait que le DIH constitue le cadre le plus approprié pour orienter les décisions juridiques concernant le développement ou l'utilisation des lois, les préoccupations concernant le respect du DIH ont conduit à une discussion sur les niveaux de contrôle humain. Certains États ont commencé à définir une politique sur la nature du contrôle humain, le Royaume-Uni affirmant que l'autorité humaine est toujours requise pour la décision de faire grève et le Canada déclarant qu'il s'est engagé à maintenir une participation humaine appropriée dans l'utilisation des capacités militaires. »

Des États comme l'Algérie, l'Égypte et la Chine, ainsi que des organisations comme la Campagne pour arrêter les robots tueurs, Human Rights Watch et Mines Action Canada voient un contrôle humain significatif incompatible avec les LOIS. Ils ont donc soutenu l'interdiction du développement et de l'utilisation des lois. Des États comme Israël, la Russie, la Turquie, le Royaume-Uni et les États-Unis s'opposent à une telle interdiction, les États-Unis et le Royaume-Uni indiquant qu'il est «trop tôt» pour soutenir une interdiction. Des États comme la Finlande, Israël, la Suède, le Royaume-Uni et les États-Unis ont fait valoir que les examens nationaux des armes sont la meilleure façon de traiter les lois. En revanche, la Chine a soutenu que, bien que les examens nationaux soient avantageux, un travail multilatéral est nécessaire.

Aspects techniques

Le 13 novembre, le GGE a tenu son panel sur les aspects techniques du droit. Alors que le résumé du panel de l'ONU que "

] a présenté six experts de l'industrie et du milieu universitaire. Le professeur Margaret Boden, de l'Université du Sussex, a souligné que, même dans 50 ans, les robots ne pourront plus être des êtres moraux ou éthiques. Le professeur Gary Marcus, de l'Université de New York, a souligné que les systèmes d'IA ne peuvent pas encore gérer les situations anormales ou le bon sens. M. Gautam Shroff, de Tata Consultancy Services, Inde, s'est dit préoccupé par la confusion entre l'IA et les systèmes informatiques, notant que les systèmes d'IA ne peuvent pas être "débogués" de la même manière. M. Harmony Mothibe, de BotsZa, Afrique du Sud, a parlé des défis liés au degré d'interprétation dans le traitement des langues. Le professeur Stuart Russell, de l'Université de Californie à Berkeley, a simultanément souligné les avantages de l'IA et mis en garde contre le développement des LOIS, notamment en ce qui concerne la faisabilité de leur conformité au droit international. M. Sean Legassick, de DeepMind, a noté que le niveau de contrôle humain sur les LOIS doit être suffisamment élevé pour correspondre au potentiel de dommages causés par les LOIS.

Les délégations ont également discuté de la dimension technologique des LOIS au cours d'une discussion interactive le 15 novembre. Au cours de cette discussion, les États ont exprimé des points de vue différents sur la question de savoir si les lois existent ou pourraient exister dans un avenir prévisible.

Effets militaires

Le GGE a tenu son panel sur les effets militaires du LAWS le 14 novembre. Le résumé des Nations Unies du panel a énuméré un certain nombre d'applications militaires des technologies liés aux lois. Ceux-ci comprennent: l'amélioration de l'efficacité du combat, la réduction de la charge physique et cognitive pour les soldats et les commandants, la réduction des coûts et l'élargissement de la zone et de la profondeur des opérations de combat. De telles applications militaires pourraient être souhaitables du point de vue du DIH, ce qui permettrait peut-être moins de dommages collatéraux, l'utilisation d'une force non létale pour la protection de la force et une meilleure discrimination entre civils et combattants. Même ainsi, il y a des limites aux applications de l'IA au domaine militaire, y compris la façon dont certaines tâches, comme celle du soldat d'infanterie, ne peuvent pas être remplacées par l'automatisation. Atteindre la Volonté Critique que la discussion du panel est l'une des questions les plus cruciales en débat: la mesure dans laquelle les LOIS opérant en dehors d'un «contrôle humain significatif» peuvent se conformer au DIH

six experts sur cette dimension du développement des armes. Le brigadier Patrick Bezombes, de France, a divisé les systèmes automatisés en quatre niveaux, chaque niveau subséquent s'éloignant du commandement et du contrôle humains: 1) téléopéré, 2) supervisé, 3) semi-autonome et 4) autonome. Expliquant que les technologies des trois premiers niveaux sont déjà développées et déployées par de nombreux pays, Bezombes a recommandé que le Groupe se concentre sur des armes entièrement autonomes. Le professeur Heigo Sato, de l'Université de Takushoku, Tokyo, a soutenu que, quelle que soit la manière dont les États décident de traiter individuellement ou individuellement le développement ou l'interdiction des lois, tous devront faire face aux aspects politiques et militaires interdépendants des lois, comme les différences. entre les objectifs et les doctrines militaires et la gestion du contrôle et de la prolifération à double usage. Le lieutenant-colonel Alan Brown, du ministère de la Défense du Royaume-Uni, a déclaré que l '«horreur morale» d'un manque de responsabilisation fondé sur la délégation de l'agence aux machines est inexacte; les humains sont tenus responsables dans le contexte actuel et seraient tenus responsables si des choix incorrects sont faits. Il a également affirmé qu'un processus d'examen des armes est le meilleur moyen d'évaluer les lois. Le Dr David Shim, de l'Institut KAIST de Robotique de la République de Corée, a suggéré de programmer un processus dans les LOIS par lequel les humains peuvent déterminer pourquoi certaines décisions ont été prises. Le lieutenant-colonel Christopher Korpela, de l'Académie militaire de West Point, a affirmé les avantages opérationnels et humanitaires des systèmes autonomes. Mme Lydia Kostopoulos, de l'Université de la Défense nationale, a présenté une approche en trois parties aux conducteurs d'armes autonomes: 1) la confiance de la technologie, 2) l'acceptation culturelle, et 3) la disponibilité.

D'une part, il y avait un discours sur les avantages militaires potentiels qui pourraient résulter de technologies semi-autonomes et de l'association homme-machine. D'un autre côté, il y a eu des discussions sur les implications négatives potentielles de la LAWS en matière de sécurité, ainsi que sur l'indésirable sur le plan militaire des armes échappant au contrôle humain.

Dimensions juridiques et éthiques

Également le 14 novembre, le GGE a tenu son panel sur les dimensions juridiques et éthiques du droit. Le résumé des Nations Unies explique comment le respect des principes du DIH tels que la distinction, la proportionnalité et la précaution exige un niveau minimum de contrôle et de supervision humaine, y compris une capacité d'intervention après l'activation de l'arme. Le GGE a également étudié le besoin potentiel de normes de prévisibilité et de fiabilité pour les armes dotées d'une autonomie dans leurs fonctions critiques. La définition pratique de l'autonomie du CICR se concentre sur le degré d'implication de l'homme, en particulier sur l'autonomie des fonctions essentielles de sélection et de ciblage. Le CICR prévoit de mettre à jour son guide sur les révisions de l'article 36 (l'article 36 du premier Protocole additionnel aux Conventions de Genève étant l'article qui oblige à réviser la légalité des armes nouvelles); Ce guide sera disponible en 2018.

La session sur les dimensions juridiques et éthiques du LAWS six experts de l'industrie et du monde universitaire. Mme Kathleen Lawand, du CICR, a noté que les examens nationaux des armes sont cruciaux, mais pas nécessairement suffisants, pour traiter les questions juridiques posées par les lois. Elle a également présenté la proposition du CICR pour une définition pratique des systèmes d'armes autonomes, qui sont des armes dotées d'une autonomie dans leurs fonctions critiques de sélection et d'attaque des cibles. Lawand a souligné que le respect du DIH nécessite un lien direct entre la décision de l'opérateur humain et le résultat de l'attaque. Mme Marie-Hélène Parizeau, de la Commission mondiale d'éthique des connaissances scientifiques et des technologies, a déclaré que la responsabilité morale de prendre la vie humaine ne peut être déléguée à une arme, car cela porterait atteinte à la dignité humaine et dévaloriserait la vie humaine. Le professeur Xavier Oberson, de l'Université de Genève, a fait valoir que, étant donné que les LAWS n'ont pas de personnalité juridique, une «chaîne de responsabilité» devrait être développée de la production à l'utilisation de l'arme pour en poursuivre l'usage abusif. M. Lucas Bento, avocat chez Quinn Emanuel Urquhart & Sullivan et président de l'Association des avocats américano-brésiliens, a expliqué que la conversation devrait passer des termes d '«autonomie» et de «létalité» à ceux d' «intelligence» et de «violence». Le professeur Bakhtiyar Tuzmukhamedov, de l'Académie diplomatique de la Fédération de Russie, a fait valoir que sans une définition des lois, les États ne sont pas prêts pour un instrument juridiquement contraignant. Le professeur Dominique Lambert, de l'Université de Namur, a soutenu que, pour préserver un «principe d'autocohérence anthropologique», les États doivent empêcher le développement de systèmes imprévisibles permettant aux humains de perdre la responsabilité de leurs actes

. discuté des dimensions juridiques et éthiques des LAWS lors d'une discussion interactive le 15 novembre. Au cours de cette discussion, les délégations ont réaffirmé que le DIH s'applique aux lois, et que les états et les humains ont la responsabilité légale ultime de leur utilisation.

Dimensions transversales

Enfin, le 17 novembre, le GGE a tenu son panel sur les dimensions transversales de LAWS. Le résumé de l'ONU explique comment la vraie intelligence artificielle a trois composantes: 1) l'apprentissage automatique; 2) la capacité de comprendre le langage naturel; et 3) la capacité d'interagir avec les êtres humains d'une manière humaine. Parallèlement, l'Institut des ingénieurs électriques et électroniques (IEEE) considère que le terme «AI» est trompeur et préfère l'utilisation de «systèmes autonomes intelligents». Les praticiens ont cherché à introduire une réglementation, y compris par les normes IEEE, centrée sur concept de conception éthique. Le résumé de l'ONU souligne en outre la nécessité d'examiner si une vulnérabilité dans une arme autonome pourrait être corrigée à distance, si l'arme devrait être rappelée, ou si un opérateur serait capable de s'appuyer sur un mécanisme de sécurité. Le résumé de l'ONU souligne que les États devraient éviter certains pièges lorsqu'ils discutent de l'autonomie, comme le fait de considérer l'autonomie comme un attribut général d'un système au lieu de s'appliquer à ses diverses fonctions, de distinguer les systèmes autonomes et automatisés. 19659002]

Le chemin à parcourir

Le GGE a débattu de la voie à suivre le 16 novembre. Les délégations ont soutenu le maintien du Groupe en 2018 et ont souligné que les travaux futurs devraient être axés sur la compréhension commune des caractéristiques liées aux lois, ainsi que des mesures pratiques pour améliorer le respect du droit international. Reaching Critical Will que la Chine, le Japon, la Lettonie, la République de Corée, la Russie et les États-Unis ne voulaient pas considérer des résultats tangibles au moment de la conférence. Les délégations ont exprimé des points de vue divergents sur la poursuite d'une déclaration politiquement contraignante, d'un code de conduite ou d'un groupe technique d'experts sur les LAWS. Des points de vue également divergents ont été exprimés sur la poursuite d'un instrument juridiquement contraignant. Le Mouvement des pays non alignés, l'Algérie, l'Argentine, le Brésil, le Chili, le Costa Rica, Cuba, le Nicaragua, le Pakistan, la Palestine, le Panama, le Pérou, Sri Lanka et l'Ouganda un instrument juridiquement contraignant. 19659002]

Conclusions et recommandations

Le GGE CCW a réaffirmé que le DIH s'applique pleinement à tous les systèmes d'armes et que la responsabilité du déploiement de tout système d'armes dans les conflits armés incombe aux États. Notant que des systèmes autonomes intelligents sont élaborés à des fins civiles et militaires, le Groupe a affirmé que son mandat ne devrait pas entraver le progrès ou l'accès à la recherche et au développement civils et l'utilisation de systèmes autonomes intelligents. Le GGE a suggéré que la prochaine réunion se concentre sur la caractérisation des systèmes considérés afin de promouvoir une compréhension commune des concepts nécessaires à l'objet et au but de la CCW. Il a suggéré de se concentrer davantage sur les aspects de l'interaction homme-machine dans le développement, le déploiement et l'utilisation des LOIS.

Appels pour limiter le développement

Bien que les esprits raisonnables puissent différer quant à savoir si une augmentation de l'autonomie des armes létale est une bonne chose aura un effet positif sur la guerre, y compris potentiellement une réduction des civils. les victimes, la majorité des groupes d'intérêt l'arrêt du développement de ce type de technologie. Un débat de mai 2014 entre Ronald Arkin, professeur et roboticien de Georgia Tech, et Noel Sharkey, président du Comité international pour le contrôle des armements, lors d'une réunion informelle [1945-1969] d'experts sur les LAWS. Alors que Sharkey a avec la capacité des LOIS à se conformer au DIH et doivent rester sous contrôle humain significatif, Arkin que si déployé de manière appropriée Les LOIS «peuvent aider le sort du non-combattant innocent pris sur le champ de bataille». Pour plus d'informations sur les avantages et désavantages perçus du LAWS, voir ce rapport . Les inquiétudes suscitées par le préjudice illégal que constituent les LAWS ont conduit un certain nombre d'ONG à lancer la Campagne pour arrêter les robots tueurs. Cette coalition internationale pour interdire de manière préventive le développement, la production et l'utilisation d'armes entièrement autonomes. Afin d'obtenir une interdiction aussi préemptive, la Campagne pour arrêter les robots tueurs préconise un certain nombre de solutions possibles, notamment un traité international, des lois nationales et d'autres mesures, ainsi qu'une mise en œuvre du Rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires. Heyns, recommandations issues de son rapport sur des robots autonomes létaux. Alors que l'article 36 du Protocole additionnel I aux Conventions de Genève exige l'examen des armes, la Campagne pour arrêter les robots tueurs que ces examens sont insuffisants pour répondre à tous les défis soulevés par les LOIS. Other notable NGOs that campaign for a ban are Human Rights Watch, the International Committee on Robot Arms Control (ICRAC) and Article 36.

See on the possibility of a ban of “killer robots” and an opportunity to reframe the conversation around alternative approaches to addressing the regulatory challenges posed by LAWS.

Second Meeting of CCW GGE on LAWS

The first meeting of 2018 from April 9 to 13, and the second meeting of 2018 will be held from August 27 to 31. The issues that will be addressed at the first meeting:

  • Characterization of the systems under consideration in order to promote a common understanding on concepts and characteristics relevant to the objectives and purposes of the Convention;
  • Further consideration of the human element in the use of lethal force; aspects of human-machine interaction in the development, deployment and use of emerging technologies in the area of lethal autonomous weapons systems;
  • Review of potential military applications of related technologies in the context of the Group’s work; and
  • Possible options for addressing the humanitarian and international security challenges posed by emerging technologies in the area of lethal autonomous weapons systems in the context of the objectives and purposes of the Convention without prejudicing policy outcomes and taking into account past, present and future proposals.

Six working papers have been submitted in advance of the 2018 GGE on LAWS. Those include papers from,,, and.

Regardless of whether states come to some agreement on the regulation of LAWS, or whether they continue to greatly disagree about their potential for abuse, this week’s discussions are well worth the attention of those involved in the development of international security and humanitarian policy.

 




Source link