Fermer

mars 22, 2024

Le Premier ministre italien demande justice pour une vidéo pornographique deepfake alors que les affaires se multiplient

Le Premier ministre italien demande justice pour une vidéo pornographique deepfake alors que les affaires se multiplient


La Première ministre italienne Giorgia Meloni réclame 100 000 € de dommages et intérêts après que de fausses vidéos pornographiques d’elle ont été partagées en ligne.

Meloni demande réparation à un homme de 40 ans et à son père pour les deepfakes, qui ont été visionnés des millions de fois. Les vidéos porno deepfake ont été mises en ligne avant son application.nomination en tant que Premier ministre en 2022.

En cas de succès, le Premier ministre s’est engagé à donner l’argent à un fonds de soutien aux femmes victimes de violences basées sur le genre.

Même si les responsables de cette affaire ont pu identifier les auteurs, qui risquent désormais une peine de prison, la plupart passent inaperçus. Les créateurs et partageurs d’images deepfake sont notoirement difficile à retrouver.

Le <3 de la technologie européenne

Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!

En 2016, les chercheurs n’ont identifié qu’une seule vidéo porno deepfake en ligne. Au cours des trois premiers trimestres de 2023 seulement, 143 733 nouvelles vidéos pornographiques deepfake ont été mises en ligne, selon un nouveau rapport. enquête par Channel 4 News.

Dans le cadre de l’enquête, la chaîne britannique a découvert des vidéos de 4 000 personnalités célèbres parmi les 40 sites les plus populaires pour ce type de contenu. Parmi eux, 250 venaient du Royaume-Uni, dont Cathy Newman, présentatrice de Channel 4 News elle-même.

«Cela ressemble à une violation. C’est vraiment sinistre que quelqu’un qui a organisé tout ça, je ne puisse pas le voir, et il peut voir ce genre de version imaginaire de moi, cette fausse version de moi », a déclaré Newman.

« Vous ne pouvez pas ignorer cela. C’est quelque chose sur lequel je reviendrai sans cesse. Et juste l’idée que des milliers de femmes ont été manipulées de cette manière. Cela ressemble à une intrusion et une violation absolument flagrante », a-t-elle poursuivi.

« C’est vraiment troublant de pouvoir, d’un simple clic, trouver ce genre de choses, et que les gens puissent créer cette parodie grotesque de la réalité avec une simplicité absolue. »

La prolifération des outils d’IA a rendu plus facile que jamais la création de vidéos pornographiques deepfakes, qui superposent l’image du visage d’une personne sur le corps d’une autre.

Cette semaine encore, la chaîne d’information néerlandaise AD découvert un déluge de vidéos porno deepfake mettant en vedette des dizaines de célébrités néerlandaises, de parlementaires et de membres de la famille royale, tous des femmes.

L’affaire la plus médiatisée de l’année s’est produite le mois dernier, lorsque explicite, non consensuel images deepfakes de Taylor Swift inondé X, anciennement Twitter. L’une des vidéos a été vue 47 millions de fois avant d’être supprimée 17 heures plus tard.

Même si les cas où des célébrités sont touchées retiennent le plus l’attention de la presse, il s’agit d’un problème qui touche les femmes (et parfois les enfants) de tous horizons. Près des deux tiers des femmes craignent d’être victimes de pornographie deepfake, selon une étude. rapport par entreprise de cybersécurité ESET publié mercredi.

« Les images numériques sont presque impossibles à véritablement supprimer, et il est plus facile que jamais de générer artificiellement de la pornographie avec le visage de quelqu’un dessus », a déclaré Jake Moore, conseiller chez ESET.

Au Royaume-Uni, le nouveau projet de loi sur la sécurité en ligne interdit le partage de pornographie deepfake. Cependant, de manière générale, la loi peine à suivre. Dans l’UE, malgré un certain nombre de règlements entrants ciblant l’IA et les médias sociaux, il n’existe pas de lois spécifiques protégeant les victimes de deepfake pornographie non consensuelle.

Beaucoup se tournent désormais vers les sociétés d’IA pour réprimer la création de deepfake porn et vers les géants des médias sociaux pour contrôler leur propagation en ligne. Cependant, compter sur les entreprises technologiques – qui engrangent des revenus publicitaires grâce au tourbillon d’activités en ligne sur leurs plateformes – pour faire ce qu’il faut n’est peut-être pas la meilleure stratégie.

En attendant que la loi rattrape son retard, des technologies comme les systèmes d’authentification, le filigrane numérique et la blockchain pourraient aider à lutter contre et à tracer les deepfakes, ce qui nous rendrait tous plus sécurisés en ligne.

« Ce dont nous avons besoin, c’est d’une stratégie de collaboration mondiale globale et multidimensionnelle mettant l’accent sur la réglementation, la technologie et la sécurité », Mark Minevich, auteur de Our Planet Powered by AI et conseiller de l’ONU sur la technologie de l’IA, dit précédemment à TNW.

« Cela permettra non seulement de relever les défis immédiats des deepfakes non consensuels, mais aussi de jeter les bases d’un environnement numérique caractérisé par la confiance, la transparence et une sécurité durable. »




Source link