Fermer

juin 17, 2019

L’éthique des deepfakes n’est pas toujours noire ou blanche



Il est fort probable que si vous avez vu un film tel que celui-ci, maintenant tristement célèbre, une vidéo du discours du comédien Jordan Peele par Obama a laissé un sentiment inconfortable. Depuis que Deepfakes est apparu en décembre 2017, la plupart des médias ont principalement couvert leurs applications potentiellement catastrophiques. Celles-ci vont de pornographie "deepfake" à de ransomfakes de campagnes de diffamation contre des politiciens et d'un nouvel âge de fausses informations susceptibles de raviver le monde ". crise post-vérité.

Bien que ces utilisations malveillantes de deepfakes et de médias synthétiques suscitent à juste titre l'inquiétude, il existe également des utilisations positives des mêmes technologies d'IA générative. Par exemple, Lyrebird, une start-up canadienne, s'est associée à la fondation SLA sur Project Revoice une initiative qui utilise l'IA générative pour créer des voix synthétiques personnalisées pour les personnes souffrant de SLA qui ont perdu la capacité de parler. De même, DeepEmpathy un projet de MIT et de Unicef, crée des images synthétiques qui montrent à quoi ressembleraient des villes comme Londres et Tokyo si elles étaient bombardées, dans le but de favoriser l'empathie avec ceux qui fuient la guerre.

Ces exemples montrent que, comme la plupart des technologies, les médias synthétiques générés par l'IA ont des applications positives et négatives. Cependant, au-delà de ces exemples moralement noirs et blancs, il existe de nombreuses applications «grises» qui ne rentrent pas parfaitement dans cette classification. J'appelle ces exemples moralement ambigus de médias synthétiques générés par l'IA Greyfakes .

De par leur nature, les Greyfakes ne peuvent rester gris pour toujours. Ils pourraient évoluer pour avoir un impact positif ou négatif, quelles que soient les intentions derrière leur création. Tandis que les gouvernements et les entreprises s'efforcent de contrer les utilisations explicitement négatives des supports synthétiques et d'exploiter les avantages, les greyfakes se développent discrètement sous une surveillance bien moindre.

Je voudrais attirer votre attention sur trois exemples de greyfakes qui se développent déjà rapidement et sur la raison pour laquelle ils requièrent beaucoup plus d'attention.

Résurrection synthétique

Les applications commerciales les plus prometteuses des supports synthétiques générés par l'IA sont sans doute les suivantes: secteur du divertissement. En utilisant CGI, les experts ont déjà recréé de manière réaliste l’actrice décédée Carrie Fisher dans le rôle de Princesse Leia dans Star Wars. Avec les améliorations rapides des supports synthétiques générés par l'IA, cette pratique sera probablement automatisée et mise à l'échelle avec un degré de réalisme encore plus élevé.

Il peut en résulter que la mort d’un acteur mène simplement à la création de son jumeau synthétique qui continue de figurer dans les films ou les émissions de télévision. C'est clairement dans l'esprit de Disney qui lutte contre la législation qui restreint les deepfakes et les médias synthétiques à New York, affirmant que de telles restrictions sur la technologie pourraient entraver les libertés de création.

de cette "résurrection synthétique" sont loin d'être claires. Comme Melanie Ehrenzkranz le notait, la possibilité d'un au-delà synthétique pour les célébrités pourrait donner à voir des personnages tels que JFK devenir des marionnettes pour des entreprises, recréées pour promouvoir des produits ou des marques.

Cela soulève d’importantes questions au sujet du contrôle de notre ‘au-delà numérique’ et des droits à notre image de soi. Dans le cas des célébrités, la question principale est de savoir si nous pouvons tracer la distinction entre loisirs respectueux et exploitation commerciale.

Un autre greyfake dans cet espace est l'utilisation potentielle de la synthèse vocale audio pour recréer la voix d'êtres chers décédés. Cela a été observé par une startup audio à synthèse vocale, Deepsync qui a déclaré que des personnes leur avaient demandé de recréer la voix de leur père décédé avec la technologie.

Cela pourrait potentiellement faire partie d'un nouveau type de traitement du deuil ou aider les gens à mieux se sentir en contact avec le défunt. Cela pourrait également causer des dommages psychologiques importants, retarder le rétablissement des victimes et créer une dépendance vis-à-vis des copies synthétiques des morts.

Deepfake doppelgangers

Les morts ne sont pas les seuls à pouvoir être recréés de manière synthétique avec des résultats moralement ambigus. Quand Vice a pour la première fois fait l’histoire de deepfakes l’accent était mis sur leur «pornographie deepfake» non consensuelle impliquant des célébrités. Depuis lors, de plus en plus de préoccupations ont été soulevées quant à la manière dont les outils d'IA pour la création de supports synthétiques pourraient être utilisés pour créer de la pornographie de vengeance ciblant les citoyens ordinaires.

Cependant, une société, Naughty America est pionnière dans l'idée de pornographie synthétique consensuelle qui insère les clients dans des scènes personnalisées. Bien que toutes les parties concernées aient donné leur consentement, il est difficile d’imaginer que la marchandisation de ce service ne conduirait pas à l'insertion involontaire de certaines personnes dans des scènes pornographiques via une plate-forme en ligne largement accessible.

En outre, ces services peuvent également normaliser l'idée de la pornographie synthétique, ce qui pourrait exacerber les préoccupations existantes quant à l'impact négatif de la pornographie sur le développement psychologique et sexuel.

Les grandes entreprises de technologies investissent également énormément dans les technologies synthétiques qui reproduisent partiellement ou entièrement leurs utilisateurs. Un exemple notable est Les avatars du codec de Facebook où le haut du corps d’un utilisateur est recréé avec un degré de précision pratiquement impossible à distinguer en réalité virtuelle. Le développeur de ces avatars affirme qu’ils pourraient être habitués à avoir des conversations personnalisées avec les avatars des autres personnes, ce qui permet un niveau de connectivité interpersonnelle et un réalisme jamais vus auparavant.

Ces avatars et autres récréations similaires pourraient également conduire à un harcèlement plus viscéral et à la traîne en ligne, créant des interactions plus intenses, mais pas nécessairement plus positives. À long terme, la normalisation de ces avatars pourrait également réduire la fréquence des conversations physiques et des interactions «réelles».

Caché à la lumière: les assistants vocaux de l'IA

Les formes de médias synthétiques les plus importantes sur le plan social sont la voix. assistants et «appels automatisés» améliorés par l'intelligence artificielle. La popularité d'Alexa et d'Amazon d'Amazon nous a peut-être mis à l'aise de vivre dans un monde où se mélangeaient de manière organique et synthétique cet espace. Cependant, jusqu'à récemment, ces voix synthétiques ne sonnaient pas comme de vraies personnes; ils sont familiers mais clairement synthétiques.

L’annonce par Google de son assistant d’appel vocal Duplex AI en 2018 a changé la donne. Duplex est un service automatisé capable de prendre des rendez-vous en votre nom. Il vous permet de composer des appels en direct avec une voix synthétique très réaliste imitant des éléments du langage humain, comme les pauses et les signaux verbaux tels que «mhmmm».

Pour imiter une voix spécifique, l’intention était clairement de créer un assistant vocal synthétique qui puisse passer en tant humaine dans des interactions téléphoniques, créant l’illusion avec l’autre partie de parler avec une personne réelle.

Une préoccupation immédiate et évidente était de savoir comment cette technologie pourrait être utilisée de manière similaire à l'exemple de Naughty America, qui améliore les escroqueries, le vol d'identité ou d'autres applications explicitement malveillantes.

Cependant, la vraie question «grise» est de savoir si Duplex et un avenir où les voix synthétiques ne se distinguent plus des voix réelles sapent les véritables interactions humaines. Natasha Lomax a discuté de cette question de manière approfondie, en faisant référence à Duplex comme étant le résultat de la "supercherie systématique", sans "prise en compte des préoccupations éthiques concernant les technologies de l'IA qui sont assez puissantes et suffisamment puissantes".

Depuis, Google a assuré que les appels en duplex commenceraient par une annonce indiquant qu'il s'agissait de l'assistant vocal synthétique et non réel. Cependant, cette révision hâtive pose d'importantes questions éthiques sur le point de savoir si certaines interactions intimement humaines doivent être protégées des médias synthétiques est loin d'être nette.

Un cadre pour l'avenir

L'impact à long terme des médias synthétiques générés par l'IA sur la société est: difficile à prévoir. Cependant, ces exemples de piments gris montrent que certaines zones doivent être explorées et interrogées plus que d’autres. Pour aller de l'avant, nous devons nous assurer que l'IA générative et les supports synthétiques sont développés de manière responsable, en encourageant les applications potentiellement positives, tout en veillant à ce qu'elles ne causent pas involontairement de préjudice.

Cela nécessitera probablement la création d'un code de pratique et une discussion sociétale plus large sur le point de savoir si certains domaines des interactions humaines doivent être traités comme sacrés ou au-delà de la portée des interférences technologiques.

Si nous voulons éviter le scénario bien connu qui consiste à ne réagir que lorsque des dommages ou des torts ont été causés, il est essentiel que nous abordions la question des greyfakes dès que possible. Comme beaucoup de technologies émergentes dont nous commençons tout juste à comprendre les impacts plus larges, les grapfakes montrent que les choses sont très rarement en noir et blanc.

Publié le 16 juin 2019 – 14:00 UTC
                                




Source link