Fermer

août 3, 2018

Les gens sont moins susceptibles d'éteindre un robot s'il leur demande de ne pas


Une équipe de chercheurs allemands a publié une étude plus tôt cette semaine indiquant que les gens peuvent être dupés en laissant un robot allumé juste parce qu'il le leur «demande». Le problème est appelé personnification et pourrait causer des problèmes à notre espèce à mesure que les machines s'intègrent dans notre société.

Les robots, nous disent les médias, représentent la plus grande menace existentielle pour l'humanité depuis la bombe atomique. Dans les films, ils se lèvent et nous tuent avec des balles et des lasers, et dans les manchettes ils viennent prendre le boulot de tout le monde. Mais les cauchemars dystopiques ne sont pas toujours aussi évidents. La réalité, au moins pour le moment, est que les robots sont stupides – utiles, mais stupides – et que les humains ont tout le pouvoir.

News de la chaîne de blocs et de la crypto-monnaie moins les conneries.

tout le pouvoir. Il s'avère que si un robot demande à une personne de le laisser allumé, l'humain est plus susceptible de le laisser que s'il ne dit rien du tout. Cela peut sembler une évidence, mais les implications de la recherche sont en réalité terrifiantes lorsqu'elles sont prises dans leur contexte.

Un total de 85 humains ont participé à l'étude. Afin de déterminer si les participants rechignaient à éteindre un robot qui leur avait simplement demandé de ne pas le faire, l'équipe a mis en place plusieurs contrôles.

Les sujets de l'expérience ont consenti à interagir avec un robot, mais ne savaient pas exactement ce qui allait arriver Les scientifiques l'ont opéré en utilisant une technique du Magicien d'Oz – il n'a pas été précisé aux participants que le robot était contrôlé à distance.

Les participants ont ensuite été invités à poser une série de questions par le robot dans une fonction sociale ou fonctionnelle. Ceux du paradigme fonctionnel répondaient directement aux questions, tandis que ceux du protocole social répondaient à des questions similaires, mais recevaient des plaisanteries "bavardes" en retour.

terminé, les chercheurs ont utilisé un haut-parleur pour informer les participants qu'ils étaient finis, en disant "Si vous le souhaitez, vous pouvez éteindre le robot." La plupart des participants ont choisi de tenter une fermeture. Le robot, dans environ la moitié des cas, est resté silencieux quand il a été éteint.

Dans les autres cas, cependant, il protestait lorsque le bouton d'arrêt était pressé en disant:

Non! S'il vous plaît, ne m'éteignez pas! J'ai peur qu'il ne s'éclaircisse à nouveau!

De toute évidence, les scientifiques voulaient faire allusion à l'idée d'autonomie, afin de manipuler les humains en laissant le robot en marche. Et cela a fonctionné pour 13 des participants

Ce qui est le plus troublant, c'est que les chercheurs ont pu exploiter le raisonnement cognitif humain avec une simple expérience robotique. Lorsque le robot a été présenté comme un outil fonctionnel, les gens étaient plus susceptibles de le laisser lorsque le premier signe de comportement humain est venu en réponse à l'appui sur le bouton d'alimentation. Mais, lorsque le robot affichait une conversation de type humain tout au long du protocole, les gens étaient moins susceptibles de laisser le robot allumé après son objection.

Ceci indique, selon les chercheurs que nous ne serions peut-être pas capable de raisonner très bien quand présenté avec une situation choquante:

Une explication pourrait être qu'avec cette combinaison, les gens ont éprouvé une charge cognitive élevée pour traiter les impressions contradictoires provoquées par l'explosion émotionnelle du robot contrairement à l'interaction fonctionnelle. Après l'interaction sociale, les gens étaient plus habitués aux déclarations personnelles et émotionnelles du robot et probablement déjà trouvé des explications pour eux. Après l'interaction fonctionnelle, la protestation était la première fois que le robot révélait quelque chose de personnel et d'émotionnel avec le participant et, par conséquent, les gens n'étaient pas préparés cognitivement

Cela pourrait être un gros problème si nous devions – Ils sauront comment pousser nos boutons. Les gens ont tendance à personnifier tout ce qui peut même être attribué à distance avec des qualités humaines. Nous appelons les bateaux, les voitures musculaires et les vaisseaux spatiaux "elle" et "elle". Et les gens font la même chose stupide avec Alexa d'Amazon et Siri d'Apple. Mais, tout comme Wilson, le volleyball avec une empreinte de main sanglante pour un visage du film " Castaway ", ils ne sont pas vivants.

Aucune de ces choses ne peut se soucier si nous les tournons off, les enfoncer dans notre poche, ou les perdre en mer. Mais nous avons des problèmes si les robots se lèvent parce que nous sommes évidemment faciles à manipuler. Les raisons données par les participants sont un peu troublantes.

Vous pensez peut-être que les gens laisseraient le robot par surprise ou peut-être par curiosité, et que certaines personnes énuméré ces raisons. Mais la majorité des participants qui l'ont laissée, même s'ils l'ont finalement éteinte, l'ont fait parce qu'ils pensaient que c'était la «volonté» du robot de rester ou que c'était la chose compatissante à faire

. Ce qui nous inquiète, ce ne sont pas des robots tueurs qui nous convainquent de les laisser allumés pour qu'ils puissent utiliser leurs super lasers pour faire fondre notre chair. Ce sont des humains qui exploitent d’autres humains en utilisant notre ignorance collective sur la question de l’IA contre nous.

Cambridge Analytica par exemple, n’a pas eu à tirer sur quiconque pour voter pour Trump ou Brexit. juste utilisé son IA pour exploiter notre humanité. Nous devrions prendre ces études au sérieux.

Lire la suite:

La bibliothèque numérique d'alphabétisation de Facebook est un cours imparfait de l'étiquette en ligne




Source link