Fermer

juillet 18, 2018

Les fondateurs de DeepMind, Skype et Tesla s'engagent à ne jamais construire de robots meurtriers



2400 chercheurs et plus de 100 organisations technologiques du monde entier ont appelé à une interdiction mondiale des armes létales autonomes, et se sont engagés à ne pas les fabriquer, dans une lettre publiée par l'Institut Future of Life de Stockholm. 19659002] Nous, soussignés, appelons les gouvernements et les chefs de gouvernement à créer un avenir avec des normes, réglementations et lois internationales fortes contre les armes autonomes mortelles. Ceux-ci étant actuellement absents, nous choisissons de nous maintenir à un niveau élevé: nous ne participerons ni ne soutiendrons le développement, la fabrication, le commerce ou l'utilisation d'armes autonomes létales. Nous demandons aux entreprises et organisations technologiques, ainsi qu'aux dirigeants, décideurs et autres individus, de nous rejoindre dans cet engagement.

Les signataires comprennent Elon Musk, les trois co-fondateurs de DeepMind – Shane Legg, Mustafa Suleyman, et Demis Hassabis, fondateur de Skype Jaan Tallinn, et certains des plus grands chercheurs en IA au monde comme Stuart Russell, Yoshua Bengio et Jürgen Schmidhuber. Google Deepmind, la Fondation XPRIZE et Clearpath Robotics faisaient partie de la liste des signataires.

Le site Web notait que 26 pays des Nations Unies ont également endossé l'interdiction des systèmes d'armes létaux autonomes: Algérie, Argentine, Autriche, Bolivie, Brésil, Chili, Chine, Colombie, Costa Rica, Cuba, Djibouti, Équateur, Égypte, Ghana, Guatemala, Saint-Siège, Iraq, Mexique, Nicaragua, Pakistan, Panama, Pérou, État de Palestine, L'Ouganda, le Venezuela et le Zimbabwe.

La lettre a été publiée aujourd'hui lors de la Conférence Internationale Conjointe sur l'Intelligence Artificielle (IJCAI) de 2018 organisée par le Future of Life Institute. Bien que l'institut ait contribué à la délivrance de lettres de certains signataires par le passé, c'est la première fois que les personnes concernées déclarent individuellement ne pas développer d'armes autonomes létales.

En mai, environ une douzaine d'employés de Google ont quitté l'entreprise pour son implication dans le projet Maven de l'armée américaine – un programme de drones d'intelligence artificielle pour le compte de l'armée américaine. Pentagone. Environ 4.000 autres employés ont signé une pétition exigeant que l'entreprise arrête sa contribution au programme

La lettre actuelle publiée à Stockholm n'est pas le premier avertissement ouvert sur l'IA armée. En septembre dernier, plus de 100 PDG d'IA et de sociétés de robotique à travers le monde ont signé une lettre ouverte aux Nations Unies, avertissant que leur travail pourrait être réorienté vers la construction de robots tueurs.

une tendance croissante des opérations militaires menées à l'aide d'armes autonomes. En janvier, le Washington Post rapportait qu'environ 13 drones armés descendaient d'un endroit inconnu et attaquaient le quartier général des opérations militaires russes en Syrie.

L'Inde a également révélé son intérêt pour le développement d'un programme militaire centré sur l'IA. , lors de sa DefExpo 2018, en avril. Selon le Times of India (19459006) le secrétaire à la Production de la Défense, Ajay Kumar, avait révélé que le gouvernement indien avait mis sur pied un groupe de travail sur l'IA et préparerait une feuille de route pour la construction d'armes. Même si certaines entreprises réclament une interdiction de l'utilisation de l'IA pour les armes, le domaine de l'intelligence artificielle continuera à progresser – et certaines pommes pourries chercheront certainement à renforcer les armes pour la guerre dans ce domaine. façon. Cela n'est pas sans rappeler la dynamique entourant les armes chimiques.

Cela dit, il est plus facile d'interdire les armes avancées à un stade précoce de développement alors que seuls quelques pays ont le potentiel de les fabriquer. Il est à espérer que des initiatives comme celle-ci incitent les gouvernements et les organisations mondiales à s'attaquer de manière adéquate au problème de l'armement IA, car le besoin de supervision et de réglementation augmente dans le monde entier.




Source link