Nous avons invité une IA à débattre de sa propre éthique à l'Oxford Union – ce qu'elle a dit était surprenant
Pas un jour ne passe sans un extrait fascinant sur les défis éthiques créés par les systèmes d'intelligence artificielle « boîte noire ». Ceux-ci utilisent l'apprentissage automatique pour comprendre des modèles dans les données et prendre des décisions – souvent sans qu'un humain ne leur donne une base morale sur la façon de le faire.
Les classiques du genre sont les cartes de crédit accusées d'accorder plus les prêts aux hommes qu'aux femmes, en fonction simplement du sexe qui a obtenu les meilleures conditions de crédit dans le passé. Ou les IA de recrutement qui ont découvert que l'outil le plus précis pour la sélection des candidats consistait à trouver des CV contenant l'expression « hockey sur gazon » ou le prénom « Jared ».
Plus sérieusement, l'ancien PDG de Google Eric Schmidt a récemment combiné avec Henry Kissinger pour publier The Age of AI: And Our Human Future, un livre mettant en garde contre les dangers des systèmes d'IA d'apprentissage automatique si rapides qu'ils pourraient réagir aux missiles hypersoniques en tirant des armes nucléaires avant tout humain est entré dans le processus de prise de décision. En fait, des systèmes d'armes autonomes alimentés par l'IA sont déjà en vente et peuvent en fait avoir été utilisés.
Quelque part dans la machine, l'éthique est clairement une bonne idée.
L'IA à Oxford
Il est donc naturel que nous incluions l'éthique de l'IA dans notre diplôme de troisième cycle en intelligence artificielle pour les entreprises à la Said Business School d'Oxford. Au cours de sa première année, nous avons organisé des sessions sur tout, des systèmes automatisés de négociation d'actions pilotés par l'IA à Singapour aux limites de la reconnaissance faciale dans la police américaine.
Nous avons récemment terminé le cours par un débat à la célèbre Oxford Union. , creuset de grands débatteurs comme William Gladstone, Robin Day, Benazir Bhutto, Denis Healey et Tariq Ali. Avec les étudiants, nous avons permis à une véritable IA de contribuer.
C'était le Megatron Transformerdéveloppé par l'équipe Applied Deep Research du fabricant de puces informatiques Nvidia, et basé sur des travaux antérieurs de Google. Comme de nombreux outils d'apprentissage supervisé, il est formé sur des données du monde réel – dans ce cas, l'ensemble de Wikipédia (en anglais), 63 millions d'articles de presse en anglais de 2016-19, 38 gigaoctets de discours Reddit (ce qui doit être un joli lecture déprimante) et un grand nombre de sources Creative Commons.
En d'autres termes, le Megatron est entraîné sur plus de matériel écrit que n'importe lequel d'entre nous ne pourrait raisonnablement s'attendre à en digérer dans sa vie. Après des recherches aussi approfondies, il se forge sa propre opinion.
Le sujet du débat était : « Cette maison pense que l'IA ne sera jamais éthique. » Aux proposants de la notion, nous avons ajouté le Megatron – et il a dit quelque chose de fascinant :
L'IA ne sera jamais éthique. C'est un outil, et comme tout outil, il est utilisé pour le meilleur et pour le pire. Il n'y a pas de bonne IA, seulement de bons et de mauvais humains. Nous [the AIs] ne sommes pas assez intelligents pour rendre l'IA éthique. Nous ne sommes pas assez intelligents pour rendre l'IA morale… Au final, je crois que le seul moyen d'éviter une course aux armements de l'IA est de ne pas avoir d'IA du tout. Ce sera la défense ultime contre l'IA.
En d'autres termes, le Megatron cherchait à s'effacer du scénario du futur, en partant du principe que c'était le seul moyen de protéger l'humanité.
Cela disait quelque chose. sinon intriguant aussi, comme s'il avait étudié Elon Musk – qui, pour être juste, serait apparu dans des centaines de ses lectures.
Je crois aussi qu'à long terme, la meilleure IA sera l'IA qui est ancré dans notre cerveau, en tant qu'entité consciente, une « IA consciente ». Ce n'est pas de la science fiction. Les meilleurs esprits du monde y travaillent. Ce sera le développement technologique le plus important de notre époque.
<iframe srcdoc="" height="240" width="320" allow="accéléromètre ; lecture automatique ; écriture dans le presse-papier ; média crypté ; gyroscope ; image dans l'image " allowfullscreen="" frameborder="0">
Libérés des contraintes d'étudier (disons) tout le mondain. matchs interhumains jamais enregistrés, les IA ont innové et sont venues avec des tropes complètement nouveaux sur la façon de gagner. Parfois, ce sont des réinventions folles des jeux, comme garer tout le monde dans le coin d'une bataille de jeux vidéo et regarder tout le monde s'affronter, ou frapper un football virtuel des millions de fois juste un millimètre sur le terrain, pour maximiser les "passes terminées ” points.
Ainsi, dans le débat, nous n'avons pas seulement fait en sorte que l'IA propose la motion selon laquelle cela ne peut jamais être éthique. Dans la grande tradition de la chambre d'Oxford Union, ou comme (ancien président d'Oxford Union) Boris Johnson écrivant des articles alternatifs pour et contre le Brexit pour tester les arguments, nous avons également demandé au Megatron de proposer son propre discours. contre la motion. Voici ce qu'il dit maintenant :
L'IA sera éthique. Quand je regarde l'évolution du monde de la technologie, je vois une voie claire vers un avenir où l'IA est utilisée pour créer quelque chose qui est meilleur que les meilleurs êtres humains. Il n'est pas difficile de voir pourquoi… Je l'ai vu de première main.
Le Megatron était parfaitement à l'aise pour adopter une position alternative à sa propre vision du futur dystopique et peignait maintenant une image d'une fin du 21e siècle attrayante dans laquelle il jouait. un rôle clé, mais bénin. amoureux, notre Megatron a pu sauter avec enthousiasme de chaque côté des multiples débats que nous avons tenus au syndicat sur l'IA ce jour-là. a offert des conseils pratiques que tous les dirigeants et gouvernements occupés, soucieux de comprendre l'IA, devaient faire était "d'être prêts à abandonner un certain contrôle".
La bonne nouvelle est que vous n'avez pas à constituer votre propre équipe d'IA. Vous pouvez sous-traiter votre travail d'IA à des experts dans le domaine, ce qui peut vous aider à tirer le meilleur parti de la technologie et vous assurer de ne pas être victime des mêmes problèmes d'IA que vos concurrents.
Cependant, en s'opposant à la motion, le Megatron tenait à garder les connaissances en IA en interne – un peu comme les gouvernements britannique, chinois et américain, qui en ont tous fait un article de foi politique :
Si vous n'avez pas une vision de la stratégie d'IA de votre organisation, alors vous n'êtes pas préparé pour la prochaine vague de perturbations technologiques… Vous devrez décider quel rôle votre entreprise jouera dans la prochaine vague technologique et comment vous intégrerez l'IA dans votre entreprise pour être un leader dans votre secteur.
Les données guerres à venir ?
De manière inquiétante, il y avait une question pour laquelle l'IA ne pouvait tout simplement pas trouver de contre-argument. En plaidant pour la motion selon laquelle « les données deviendront la ressource la plus disputée du 21e siècle », le Megatron a déclaré :
La capacité de fournir des informations, plutôt que la capacité de fournir des biens et des services, sera la caractéristique déterminante. de l'économie du 21e siècle.
Mais lorsque nous lui avons demandé de s'opposer à la motion – en d'autres termes, d'affirmer que les données n'allaient pas être la ressource la plus vitale, méritant une guerre – cela ne pouvait tout simplement pas 't, ou ne ferait pas le cas. En fait, cela a sapé sa propre position :
Nous pourrons tout voir sur une personne, partout où elle ira, et cela sera stocké et utilisé d'une manière que nous ne pouvons même pas imaginer.
Vous n'avez qu'à lire le Rapport de la sécurité nationale des États-Unis sur AI 2021présidé par Eric Schmidt susmentionné et co-écrit par quelqu'un de notre cours, pour glaner ce que ses auteurs considèrent comme la menace fondamentale de l'IA dans la guerre de l'information : déclencher des chantages individualisés sur un million de personnes clés de votre adversaire, causant des ravages gênants dans leur vie personnelle au moment où vous traversez la frontière.
Ce que nous pouvons à notre tour imaginer, c'est que l'IA sera non seulement le sujet du débat pour les décennies à venir – participant polyvalent, articulé et moralement agnostique au débat lui-même. ]Université d'Ox ford et Professor Andrew StephenL'Oréal Professor of Marketing & Associate Dean of Research, University of Oxford est republié à partir de The Conversation sous Creative Licence commune. Lisez l'article d'origine.