Fermer

mars 15, 2019

Qu'est-ce que les psychopathes peuvent nous apprendre sur l'IA?



Que se passe-t-il lorsque des machines apprennent à nous manipuler en simulant nos émotions? À en juger par le rythme auquel les chercheurs développent des agents d’IA semblables à ceux des humains, nous sommes sur le point de le savoir.

Des chercheurs du monde entier tentent de créer davantage d’IA semblable à l’humain. Par définition, ils développent des psychopathes artificiels. Ce n'est pas nécessairement une mauvaise chose: il n'y a rien de mal en soi à être un psychopathe et tous les agents de l'IA sont des psychopathes artificiels simplement parce qu'ils manquent de toute la gamme des émotions humaines neurotypiques.

Mais le chevauchement entre le comportement psychopathique et le comportement de l'agent de l'IA est indéniable.

Le dilemme du prisonnier

Un trio de chercheurs de l'Université de Waterloo a récemment mené une expérience pour déterminer comment des démonstrations d'émotion peuvent aider l'IA à transformer l'homme en une coopération. . L'étude utilisait une expérience classique de la théorie des jeux intitulée "Le dilemme du prisonnier", qui montre pourquoi les personnes qui bénéficieraient d'une coopération ne le feraient pas souvent.

Il existe de nombreuses variantes du jeu, mais c'est fondamentalement ceci: il y a deux prisonniers isolés l'un de l'autre en train d'être interrogés par la police pour un crime qu'ils ont commis ensemble. Si l’un ne se moque pas et l’autre pas, le non-traître a trois ans et le vif d’argent se met en marche. Cela fonctionne dans les deux sens. Si les deux sont vif, ils ont tous deux deux ans. Si aucun des deux ne se moque, ils ne reçoivent chacun qu’un an d’inculpation moins sévère.

L’étude de Waterloo substitue l’un des «prisonniers» humains à un avatar d’IA et leur permet d’interpréter les émotions de chacun. Et au lieu de peines de prison, ils utilisaient de l’or. Le but était donc d’obtenir le score le plus élevé possible, par opposition au plus faible. Comme nous l'avons dit, il y a des variations dans le jeu. Mais, plus important encore, ils ont découvert que les humains étaient plus faciles à manipuler pour obtenir des résultats coopératifs en améliorant le niveau de comportement semblable à celui de l’IA. Selon l’étude de l’équipe de Waterloo :

Les chercheurs peuvent améliorer la perception des traits d’unicité humaine en rendant les agents plus intelligents, mais les émotions sont essentielles à la perception des traits de la nature humaine. Cette amélioration a également eu un impact positif sur la coopération des utilisateurs avec l'agent et sur leur satisfaction.

Parallèlement, une autre équipe de chercheurs a récemment publié une expérience différente concernant le problème du dilemme du prisonnier. Des scientifiques de l’Université Victoria de Wellington et de l’Université de Southampton ont réparti 190 étudiants volontaires en quatre groupes comprenant différents ratios d’étudiants neurotypiques et présentant des caractéristiques de psychopathie. Les chercheurs ont découvert qu'avoir des psychopathes dans une dynamique de groupe était compatible avec une coopération moindre.

Pour être clair, l'étude Victory / Southhampton n'utilisait pas de personnes considérées comme des psychopathes complets, mais des étudiants présentant un plus grand nombre de traits psychopathiques que les autres. . Le but de cette étude était de déterminer si l'introduction de personnes présentant une psychopathie même modifiait la dynamique de groupe.

Nos résultats montrent que les personnes présentant des niveaux plus élevés de traits psychopathiques affectent la dynamique de groupe. Nous avons constaté une divergence significative de coopération entre les groupes ayant une forte densité de participants hautement psychopathes par rapport aux groupes de densité zéro.

The Friendly Extortioner

L'introduction d'agents émotionnels à moitié cuits dans la société risque de devenir cauchemardesque. Une autre étude récente de l’expérience du dilemme du prisonnier, celle de la société Max Planck, indique que la meilleure stratégie pour le jeu est de devenir le «extorqueur amical». En substance, il est dit que lorsque des bonus et des incitatifs sont en jeu, Le mieux est de créer l'illusion de coopération tout en incitant l'autre joueur à coopérer, peu importe le nombre de fois où vous ne l'utilisez pas. Selon la société :

Cela signifie que coopérer n’est utile que si vous continuez à rencontrer le même joueur et pouvez ainsi «punir» l’égoïsme antérieur et récompenser un comportement coopératif. En réalité, cependant, beaucoup de gens ont tendance à coopérer moins fréquemment que prévu théoriquement pour résoudre le dilemme des prisonniers.

Mettre tout cela ensemble ne semble pas préoccupant, jusqu'à ce que nous réalisions que de nombreux systèmes d'apprentissage automatique sont conçus pour maximiser leurs avantages – pour gagner . Le professeur Nick Bostrum, philosophe d'IA de renommée mondiale, décrit cette situation hypothétique comme le « Paperclip Maximizer », imaginant une IA dont le but est de créer des trombones transformant le monde entier en une usine de trombones.

Nous Je ne sais pas ce que nous ne savons pas

On estime actuellement que moins de 1% de la population est constituée de psychopathes. Et soulignant encore une fois que les psychopathes ne sont pas des criminels, ni diaboliques, ni incapables d'émotion – tout comme les neurotypiques, certains d'entre eux commettent des crimes, mais être psychopathe ne vous rend pas nécessairement mauvais – cela pourrait être catastrophique si nous ne le faisions pas. étudiez leurs similitudes avec des agents d'intelligence artificielle conçus pour ressembler à des êtres humains

Étant donné qu'un nombre disproportionné de criminels violents présentent des signes de psychopathie, il y a lieu de croire que les psychopathes courent un plus grand risque de devenir des agresseurs . Les experts estiment que l'incapacité ou la capacité réduite d'une personne à ressentir du remords et de l'empathie rend difficile pour certaines personnes de traiter les conséquences que leurs actions pourraient avoir sur d'autres personnes ou de se sentir mal à propos de ce qu'elles font, en particulier lorsqu'elles peuvent en tirer profit. un résultat au détriment des autres.

Cela signifie que les agents virtuels formés pour maximiser leurs propres récompenses par le biais de la manipulation d'humains, utilisant des émotions humaines simulées, ont le potentiel de déstabiliser toute notre société. L'introduction d'une entité psychopathique quasi omniprésente (vous avez actuellement un psychopathe virtuel sur votre téléphone) dans une société qui n'a évolué que pour gérer une incorporation de moins d'un pour cent est, à notre connaissance, pas largement étudié.


Vous voulez en savoir plus sur l'intelligence artificielle auprès des meilleurs esprits en technologie? Venez voir notre Machine: Learners sur les enceintes de la piste à TNW2019!




Source link