Fermer

mai 20, 2019

La recherche indique que la seule défense contre l'IA tueur ne la développe pas



Une analyse récente sur l'avenir de la guerre indique que les pays qui continuent à développer l'IA à des fins militaires risquent de perdre le contrôle du champ de bataille. Ceux qui ne risquent pas l’éradication. Que vous soyez pour ou contre la course aux armements de l’IA: c’est ce qui se passe. Voici ce que cela signifie, selon un trio d'experts.

Des chercheurs de ASRC Federal société privée fournissant un soutien aux communautés du renseignement et de la défense, ont récemment publié un document sur serveur d'impression ArXiv discutant des conséquences potentielles de l'intégration des systèmes d'IA dans la guerre moderne.

Le document – à lire ici – est consacré aux conséquences à venir de la course aux armements de l'IA sous l'hypothèse selon laquelle AI ne sera pas en quelque sorte folle ou prise de contrôle. Il s'agit essentiellement d'un bref aperçu, sobre et terrifiant de la manière dont toutes ces différentes technologies d'apprentissage automatique se dérouleront en se basant sur l'analyse des technologies de pointe en matière d'IA militaire et sur l'intégration prédite à grande échelle.

Le document commence par un avertissement concernant l'imminence imminente. catastrophe, expliquant qu’il y aura presque certainement un «accident normal» concernant l’IA – un incident attendu de nature et de portée que nous ne pouvons prédire. Fondamentalement, les forces militaires du monde vont casser des œufs de civils faisant de la course à l'armement de l'IA:

L'étude de ce domaine a commencé par des accidents tels que Three Mile Island, mais les technologies de l'IA comportent des risques similaires. La recherche et l’exploitation de ces faiblesses pour induire un comportement défectueux deviendront un élément permanent de la stratégie militaire.

Si vous pensez que des robots tueurs manquent à leur tour dans nos villes alors que des civils courent à la recherche d’un abri, vous n’avez pas tort. un proxy pour les soldats n'est pas la plus grande préoccupation de l'humanité en matière de guerre contre l'IA. Cet article traite de ce qui se passe après que nous ayons atteint le point où il devient évident que les humains bloquent les machines dans la guerre.

Selon les chercheurs, le problème n’est pas que nous puissions qualifier de bon ou de mauvais. Bien sûr, il est facile de dire que nous ne devrions pas permettre aux robots d'assassiner des êtres humains avec autonomie, mais ce n'est pas ainsi que le processus décisionnel du futur va fonctionner.

Les chercheurs le décrivent comme une pente glissante:

Si Les systèmes d'IA sont efficaces, une pression pour augmenter le niveau d'assistance au combattant serait inévitable. Un succès continu signifierait que l’humain serait progressivement éliminé de la boucle, d’abord dans un rôle de supervision, puis dans celui d’opérateur de killswitch surveillant une loi permanente.

La loi, ou systèmes d’armes autonomes létaux, aura presque dépassent immédiatement la capacité des humains à travailler avec des ordinateurs et des machines – et probablement plus tôt que la plupart des gens ne le pensent. Le combat au corps à corps entre machines, par exemple, sera entièrement autonome par nécessité:

Au fil du temps, au fur et à mesure que l'intelligence artificielle devient plus capable de penser et d'intégrer la pensée, la composante humaine devra être totalement éliminée, tout comme la rapidité et la dimensionnalité. deviennent incompréhensibles, même en tenant compte de l’assistance cognitive.

Et, à terme, la tactique et la réactivité requises pour échanger des coups contre l’IA seront totalement hors de portée des humains:

Dans un espace de combat si écrasant que les humains ne peuvent pas s’engager manuellement avec le système, le rôle humain se limitera à une analyse médico-légale post-hoc, une fois que les hostilités auront cessé ou que des traités auront été signés.

Si cela semble un peu sinistre, c’est parce que c’est. Comme Import AI Jack Clark souligne: «C’est un document rapide qui expose les préoccupations d’AI + War dans une communauté que nous n'entendons pas souvent: des personnes qui travaillent directement pour technologie du gouvernement. ”

Il serait peut-être dans l'intérêt de tout le monde de porter une attention particulière à la manière dont les universitaires et le gouvernement continuent à définir le problème à l'avenir.

Alors que les chercheurs semblent principalement affirmer que l'IA nous mènera à la ruine , ils constituent un argument très convaincant pour les fauteurs de guerre qui cherchent des preuves pour soutenir la quête d’une puissance de feu supérieure. À un moment donné, le document souligne que "déterminer comment contrecarrer, par exemple, une organisation terroriste transformant un modèle de reconnaissance faciale en un système de ciblage pour l'explosion de drones est certainement une démarche prudente".

À la lumière de ces constatations, la conclusion est aigre-douce. que les chercheurs prétendent en définitive que la «meilleure option» pour poursuivre la course aux armements «pourrait consister à appuyer une réglementation ou une interdiction». Quel est le plan B?

H / t: Jack Clark, Import AI

]




Source link