Comment arrêter les gens utilisant votre visage pour le porno (ou d'autres choses effrayantes)
Si une image vaut mille mots, alors une vidéo vaut mille images. Aussi longtemps que les vidéos ont existé, nous leur avons fait confiance en tant que preuve fiable. Rien n'est aussi percutant que de voir quelque chose se produire en vidéo (par exemple l'assassinat de Kennedy) ou de voir quelqu'un dire quelque chose en vidéo, surtout s'il est enregistré de façon discrète (p. Ex. ]
Cependant, ce fondement de la confiance s'estompe lentement à mesure qu'une nouvelle génération de vidéos traitées par AI se fraye un chemin dans le courant principal. Connus sous le nom de "deepfakes", les vidéos synthétiques sont créées à l'aide d'une application appelée FakeApp, qui utilise l'intelligence artificielle pour échanger les visages d'une vidéo avec ceux d'une autre personne.
Depuis sa première apparition au début du mois, FakeApp une grande communauté et des centaines de milliers de téléchargements. Et un nombre considérable de ses utilisateurs étaient intéressés à utiliser l'application pour des utilisations discutables.
La création de fausses vidéos n'est pas une nouveauté, mais nécessitait auparavant l'accès à du matériel spécial, des experts et beaucoup d'argent. Maintenant, vous pouvez le faire dans le confort de votre maison, avec un poste de travail qui a une carte graphique décente et une bonne quantité de RAM.
Les résultats des deepfakes sont encore rudimentaires. La plupart d'entre eux ont des artefacts évidents qui donnent leur vraie nature. Même les plus convaincants peuvent être distingués si vous regardez de près. Mais ce n'est qu'une question de temps avant que la technologie devienne assez bonne pour même tromper les experts formés. Ensuite, son pouvoir destructeur prendra une toute nouvelle dimension.
Les capacités et les limites des deepfakes
Sous le capot, les deepfakes ne sont pas de la magie, ce sont des mathématiques pures . L'application utilise application d'apprentissage en profondeur ce qui signifie qu'elle s'appuie sur les réseaux de neurones pour remplir ses fonctions. Les réseaux de neurones sont des structures de logiciel conçues après le cerveau humain.
Lorsque vous donnez à un réseau neuronal de nombreux échantillons d'un type spécifique de données, par exemple des images d'une personne, il apprend à détecter le visage de la personne. ou, dans le cas de deepfakes, remplacer le visage d'un autre par celui-ci.
Cependant, deepfakes souffre des mêmes problèmes que toutes les applications d'apprentissage en profondeur: Il repose trop sur les données . Pour créer une bonne vidéo fausse, les deepfakers ont besoin de beaucoup d'images de visage de la personne dans la vidéo originale (ce qui n'est pas un problème si elles l'ont créé elles-mêmes) et de la personne dont le visage sera placé dans la production finale. Et ils ont besoin que les images soient de différents angles et avec une qualité décente.
Cela signifie qu'il sera difficile de faire un deepfake d'une personne au hasard parce que le deepfaker devra rassembler des milliers d'images de la cible. Mais les célébrités, les politiciens, les athlètes et d'autres personnes qui apparaissent régulièrement à la télévision ou publient beaucoup de photos et de vidéos en ligne sont prêts pour le deepfaking.
L'avenir de la falsification de l'IA
faux porno impliquant des célébrités, des stars de cinéma et des politiciens apparus en raison de l'abondance de photos et de vidéos disponibles en ligne.
Le contrecoup que ces vidéos ont provoqué dans les médias et dans les discussions d'experts et les législateurs nous donnent un aperçu de la perturbation et le chaos que la falsification générée par l'IA peut déclencher dans un avenir pas trop lointain. Mais la vraie menace des deepfakes et d'autres médias AI-doctored n'a pas encore émergé.
Quand vous mettez des deepfakes à côté d'autres outils alimentés par AI qui peuvent synthétiser la voix humaine ( Lyrebird et Voicery ), écriture manuscrite et style de conversation l'impact négatif peut être immense (mais aussi le positif, mais c'est le sujet pour un autre post).
Un article dans le blog Lawfare montre une image de ce que l'évolution des deepfakes pourrait impliquer. Par exemple, une fausse vidéo peut montrer une autorité ou un fonctionnaire faisant quelque chose qui peut avoir des répercussions sociales et politiques massives, comme un soldat tuant des civils ou un politicien prenant un pot-de-vin ou prononçant un commentaire raciste. Comme l'a dit récemment un expert en apprentissage automatique: «Une fois que vous voyez quelque chose, vous voyez qu'il est très difficile.»
Nous avons déjà vu comment les fausses nouvelles ont eu un impact négatif sur les États-Unis. élections présidentielles en 2016. Attendez que les mauvais acteurs aient des appuis profonds pour soutenir leurs revendications avec de fausses vidéos. Les technologies synthétisant l'IA peuvent aussi ouvrir la voie à une nouvelle ère de fraude, de contrefaçon, de fausses nouvelles et d'ingénierie sociale
Cela signifie que toute vidéo que vous voyez pourrait avoir été un deepfake; tous les e-mails que vous avez lus ou les conversations textuelles que vous avez engagées peuvent avoir été générés par algorithmes de traitement et de génération de langage naturel qui ont méticuleusement étudié et imité le style d'écriture de l'expéditeur; tout message vocal que vous obtenez pourrait être généré par un algorithme AI; et tous visent à vous attirer dans un piège.
Cela signifie que vous devrez vous méfier de tout ce que vous voyez lire ou entendre jusqu'à ce que vous puissiez prouver son authenticité.
Comment contrer les effets de la falsification de l'IA
Alors, comment pouvez-vous prouver l'authenticité des vidéos et assurer une utilisation sûre de la synthèse d'IA? outils? Certains des experts auxquels j'ai parlé suggèrent que la sensibilisation sera une première étape importante. Éduquer les gens sur les capacités des algorithmes d'IA sera une bonne mesure pour éviter que les mauvaises utilisations d'applications comme FakeApp aient un impact étendu – au moins à court terme.
Les mesures légales sont également importantes. Actuellement, il n'y a pas de garanties sérieuses pour protéger les gens contre les enregistrements profonds ou contrefaits. L'imposition de lourdes pénalités à la pratique augmentera les coûts de création et de publication (ou d'hébergement) de faux documents et servira de moyen de dissuasion contre les mauvais usages de la technologie.
Mais ces mesures ne seront efficaces que si les humains peuvent dire différence entre les faux et les vrais médias. Une fois la technologie arrivée à maturité, il sera quasiment impossible de prouver qu'un enregistrement vidéo ou audio spécifique a été créé par des algorithmes d'IA
Pendant ce temps, quelqu'un pourrait aussi profiter des doutes et des incertitudes entourant la falsification de l'IA pour affirmer qu'un La vraie vidéo qui les dépeint commettant un crime était le travail de l'intelligence artificielle.
La technologie pour faire face à la falsification de l'IA
Nous avons également besoin de mesures techniques pour étayer nos garanties éthiques et juridiques contre les falsifications profondes et autres formes de falsification fondée sur l'IA. Ironiquement, la meilleure façon de détecter les médias AI-doctored est d'utiliser l'intelligence artificielle. Tout comme les algorithmes d'apprentissage profond peuvent apprendre à assembler le visage d'une personne sur le corps d'une autre personne dans une vidéo, ils peuvent être formés pour détecter les signes révélateurs indiquant que l'IA a été utilisée pour manipuler une photo, une vidéo ou un fichier sonore. Cependant, le truquage pourrait devenir si réel que même l'IA ne sera pas capable de le détecter. Pour cette raison, nous devrons établir des mesures pour enregistrer et vérifier l'authenticité des vrais médias et documents.
Lawfare suggère qu'un service suivra les mouvements et les activités des gens pour établir un répertoire de preuves qui pourrait être utilisé pour vérifier l'authenticité du matériel publié sur ces personnes.
Ainsi, par exemple, si quelqu'un publie une vidéo qui montre que vous étiez à un certain endroit à un certain moment, faites quelque chose. douteux, vous pouvez demander à ce service tiers de vérifier et de certifier ou de rejeter la réclamation en comparant l'emplacement de cette vidéo avec vos données enregistrées.
Toutefois, comme le même article l'indique, l'enregistrement d'une grande partie de votre les données pourraient impliquer un plus grand risque pour la sécurité et la confidentialité, surtout si elles sont toutes collectées et stockées par une seule société . Cela pourrait conduire à un vol d'informations en gros, comme la fuite de données d'Equifax l'année dernière ou encore au scandale Cambridge Analytica de Facebook. Et il peut encore être joué par de mauvais acteurs, soit pour couvrir leurs crimes ou pour produire des preuves contre les autres.
De plus, les chaînes de blocs résistent à une foule de menaces de sécurité. que les magasins de données centralisés sont vulnérables. Les registres distribués ne sont pas encore très efficaces pour stocker de grandes quantités de données, mais ils sont parfaits pour stocker des hachages et des signatures numériques.
Par exemple, les gens pourraient utiliser la blockchain pour signer numériquement et confirmer l'authenticité d'un fichier vidéo ou audio. C'est lié à eux. Plus les gens ajoutent leur signature numérique à cette vidéo, plus ils seront vraisemblablement considérés comme un véritable document. Ce n'est pas une solution parfaite. Il faudra des mesures supplémentaires pour peser et tenir compte de la qualification des personnes qui votent sur un document.
Pour le moment, il est clair que la falsification de l'IA pourrait bientôt devenir une menace sérieuse. Nous devons spéculer sur une approche appropriée, à plusieurs volets, qui nous permet de prévenir les utilisations malveillantes de l'IA tout en permettant l'innovation. Jusque-là, IRL est le seul espace auquel vous pouvez vraiment faire confiance
Cette histoire est republiée de TechTalks le blog qui explore comment la technologie résout les problèmes … et en crée de nouveaux. Comme eux sur Facebook ici et suivez-les ici:
Source link