La semaine dernière, des images deepfake explicites et non consensuelles de Taylor Swift ont inondé X, anciennement Twitter — l’une des vidéos a accumulé 47 millions de vues avant d’être supprimée 17 heures plus tard.
Pour tenter d’arrêter la diffusion des images, X a interdit les recherches telles que « Taylor Swift » ou « Taylor Swift AI ». Cependant, simplement réorganiser la recherche de « Taylor Swift AI » à « Taylor AI Swift » a donné des résultats.
La plateforme de médias sociaux est arrivée sous le feu pour sa lenteur de réponse, que beaucoup imputent à Elon Musk, qui a supprimé 80 % de l’équipe de modération de contenu de l’entreprise depuis sa prise de fonction en 2022.
Le déluge a suscité l’indignation des fans et des politiciens, qui se mobilisent en faveur de lois plus strictes pour empêcher la production et la diffusion de pornographie non consensuelle générée par l’IA et permettre aux victimes de ces attaques de demander justice.
Les Etats Unis introduit un projet de loi mardi qui criminaliserait la diffusion d’images sexualisées non consensuelles générées par l’IA. Au Royaume-Uni, le partage de deepfake pornographie est devenu illégal dans le cadre de la loi sur la sécurité en ligne en 2023.
Cependant, dans l’UE, malgré un certain nombre de nouvelles réglementations ciblant l’IA et les médias sociaux, il existe des aucune loi spécifique protégeant les victimes de pornographie deepfake non consensuelle.
« On ne fait pas assez pour lutter contre la propagation de fausses informations nuisibles comme les deepfakes » Marcel WendtCTO et fondateur de la société néerlandaise de vérification d’identité en ligne Digidentity, a déclaré à TNW. « Des affaires très médiatisées comme celles-ci devraient servir de signal d’alarme aux législateurs : nous devons rendre les gens plus sûrs en ligne. »
Quel est le problème avec les deepfakes ?
DLes eepfakes sont de fausses images ou vidéos générées par des algorithmes d’IA d’apprentissage en profondeur (d’où leur nom). Alors que certains sont des aubergesocent, la grande majorité ne le sont décidément pas.
La pornographie deepfake représente 98 % de toutes les vidéos deepfake en ligne. La majorité d’entre eux sont des célébrités féminines dont les images sont transformées en porno sans leur consentement, selon le État des Deepfakes rapport publié l’année dernière.
De nombreux outils permettant de créer du porno deepfake sont gratuits et faciles à utiliser, ce qui a alimenté une Augmentation de 550 % du volume de deepfakes en ligne de 2019 à 2023. Parfois, les auteurs partagent ces deepfakes à des fins purement obscènes, tandis que d’autres fois, l’intention est de harceler, d’extorquer, d’offenser, diffamerou embarrasser des individus spécifiques.
Alors que la première vague de deepfake porno ciblait des femmes de premier plan, les fans de Swift sont aujourd’hui tout aussi susceptibles d’être ciblé telle qu’elle est. Les écoles du monde entier sont aux prises avec la montée en puissance des nus IA de, et parfois créés par, enfants.
Ces deepfakes sont-ils illégaux ?
L’année dernière, plus de 20 adolescentes en Espagne reçu Images nues d’eux-mêmes générées par l’IA avec des photos dans lesquelles ils étaient entièrement habillés, tirées de leurs comptes Instagram. Si la diffusion de contenus pornographiques avec des mineurs est illégale, insérer le visage d’un mineur dans une image ou une vidéo pornographique réalisée par des adultes consentants constitue une zone grise juridique.
« Comme il est généré par des deepfakes, la vie privée de la personne en question n’est pas affectée aux yeux de la loi », a déclaré Manuel Cancio, professeur de droit pénal à l’Université autonome de Madrid. Euronews suite au cas en Espagne.
La seule loi européenne traitant directement du problème est le code pénal néerlandais. Une disposition de la loi couvre à la fois la pédopornographie réelle et non réelle. Mais cette réglementation constitue l’exception plutôt que la règle.
Mais qu’en est-il de la série de nouvelles lois européennes conçues pour lutter contre tout, de la désinformation à l’utilisation abusive de l’IA en ligne ?
Selon le Centre d’innovation des donnéestandis que le Loi sur les services numériquespar exemple, exige que les plateformes de médias sociaux soient plus efficaces pour signaler et supprimer les contenus illégaux. ne parvient pas à classer les deepfakes non consensuels comme illégaux.
L’UE également de manière controversée a abandonné une proposition dans le DSA lors de négociations de dernière minute, ce qui aurait nécessité les sites pornographiques hébergeant du contenu généré par les utilisateurs pour supprimer rapidement le matériel signalé par les victimes comme les représentant sans autorisation.
D’autres lois, comme la prochaine loi sur l’IA, obligent les créateurs à divulguer le contenu deepfake. Mais que les gens sachent qu’un deepfake en est un ou non n’est pas exactement la question : c’est l’image elle-même qui fait le mal.
« L’effet que cela produit (sur la victime) peut être très similaire à une vraie photo de nu, mais la loi est en retard », a déclaré Cancio.
Tenir les plateformes technologiques responsables
Manipuler des images pour tromper les gens n’a rien de nouveau – même le pharaon égyptien antique Hatchepsout s’est représentée dans des statues et des peintures comme un homme afin de gagner les faveurs de ses électeurs.
Mais l’explosion des outils d’IA permettant de créer des images et des vidéos d’une simple pression sur un bouton au cours des dernières années est en train de changer la donne, et ils sont utilisés à des fins bien plus néfastes que la lutte contre les idées préconçues patriarcales.
Prenez simplement l’application ClothOff par exemple. Il permet aux utilisateurs de retirer les vêtements de toute personne apparaissant dans la galerie de photos de leur téléphone. Il en coûte 10 € pour créer 25 images nues et il s’agirait de l’outil utilisé dans le scandale espagnol des deepfakes mentionné précédemment.
Le logiciel utilisé pour les images de Taylor Swift était probablement Microsoft Designer. Dans une faille, le géant de la technologie a depuis patchéles utilisateurs pouvaient générer des images de célébrités sur la plateforme en écrivant des invites telles que « Taylor « chanteur » Swift » ou « Jennifer « acteur » Aniston ».
Les générateurs d’IA générative les plus populaires ont mis en place des garde-fous pour empêcher la production de deepfakes nuisibles – bien que les utilisateurs trouvent toujours de nouvelles façons de les tromper. Les auteurs de ces actes utilisent également des outils d’IA générative open source, moins connus et plus difficiles à contrôler.
« Bien qu’il soit difficile d’empêcher la création de deepfakes, il est beaucoup plus facile d’empêcher leur propagation », a déclaré Wendt de Digiidentité. « Les plateformes de médias sociaux comme X doivent faire beaucoup plus pour signaler et supprimer les contenus nuisibles avant qu’ils ne se propagent. »
Wendt préconise un identifiant numérique pour tous les comptes de réseaux sociaux, de sorte que lorsque vous créez un compte sur des plateformes comme X, Facebook, ou Instagram, il peut être lié à votre pièce d’identité émise par le gouvernement. Cependant, étant donné les antécédents des grandes technologies en matière de confiance et de sécurité, forcer les utilisateurs à se connecter avec leur véritable identifiant semble actuellement être une tarte au ciel.
Ce que nous pouvons faire maintenant
Même si tout cela peut sembler catastrophique, il y a des lueurs d’espoir.
L’une des choses que fera la DSA est de faire pression sur les grandes technologies pour qu’elles améliorent la sécurité en ligne sur leurs plateformes. S’ils ne le font pas, ils pourraient être passibles d’une amende d’un montant de 6 % du montant.leurs revenus globaux ou être complètement bannis du syndicat.
Et bien qu’elle ne soit pas parfaite, la nouvelle loi sur l’IA crée un précédent mondial où l’éthique et la sécurité numériques sont primordiales et donne un tremplin législatif pour de futures mesures visant à contrer le monde en constante évolution des deepfakes.
Au Royaume-Uni, la loi sur la sécurité en ligne donne de nouveaux pouvoirs pour prendre des mesures en cas de deepfake pornographie et le délit est passible d’une peine maximale de deux ans de prison. Il existe également des infractions pénales pour les plateformes qui hébergent de tels contenus.
La technologie jouera également un rôle important dans la lutte et le traçage des deepfakes, grâce à de meilleurs systèmes d’authentification, à la mise en œuvre du filigrane numérique et à la blockchain. Ces technologies aideront certifier l’authenticité du contenu et garantir un enregistrement sécurisé des transactions numériques, des avantages qui nous rendront tous plus sécurisés en ligne.
« Ce dont nous avons besoin, c’est d’une stratégie de collaboration mondiale globale et multidimensionnelle mettant l’accent sur la réglementation, la technologie et la sécurité », a déclaré à TNW Mark Minevich, auteur de Our Planet Powered by AI et conseiller de l’ONU sur la technologie de l’IA.
« Cela permettra non seulement de relever les défis immédiats des deepfakes non consensuels, mais aussi de jeter les bases d’un environnement numérique caractérisé par la confiance, la transparence et une sécurité durable », a-t-il déclaré.
Source link