Au moment où le soleil se lève et se couche, certaines choses sont inévitables. Pensez à la technologie. Dès que quelque chose de nouveau apparaît, les gens trouvent invariablement le moyen d’en abuser. Ces dernières années, ce rôle est revenu à l’intelligence artificielle (IA) et l’un de ses effets secondaires les plus troublants : la montée de la pornographie deepfake non consensuelle.
L’idée est aussi simple qu’horrible : utiliser la technologie numérique pour créer des images ou des vidéos fausses et explicites de quelqu’un. Bien que cela bouillonne au cœur d’Internet depuis plusieurs années, les récentes améliorations apportées aux outils d’IA signifient que ce type de contenu devient plus facile à créer – et bien pire pour les victimes.
Heureusement, les autorités en prennent note. La Grande-Bretagne a annoncé la première loi de ce type pour lutter directement contre la pornographie deepfake non consensuelle via un amendement au projet de loi sur la justice pénale. Parallèlement, l’UE dispose d’une série de lois et de directives qu’elle peut utiliser pour lutter contre ces pratiques malveillantes. C’est du moins l’espoir.
La question est de savoir si la réglementation est un outil efficace pour lutter contre la pornographie deepfake non consensuelle et s’il existe un moyen de l’éradiquer complètement.
Un mot sur la terminologie
À ce stade, vous vous demandez peut-être pourquoi nous utilisons l’expression « pornographie deepfake non consensuelle » plutôt que l’expression plus courante « porno deepfake » ?
Eh bien, le professeur Victoria Baines — une Boursier BCS et une autorité leader en matière de cybersécurité — explique que raccourcir le terme en « deepfake porn » est considéré par les militants pour la sécurité en ligne comme « minimiser un comportement nuisible par l’abréviation ».
Comme le souligne Baines, « en fin de compte, il s’agit d’abus en ligne, pas de porno ». Plus nous parlons clairement du problème, meilleures sont nos chances de le combattre. Et, sur cette note, examinons comment les gouvernements traitent actuellement la pornographie deepfake non consensuelle.
Quelles sont les lois au Royaume-Uni ?
Bains affirme que malgré le prochain amendement au projet de loi sur la justice pénale, au Royaume-Uni, il s’agit « déjà d’une infraction pénale en vertu de l’article 188 de la loi ». la loi sur la sécurité en ligne pour partager des images intimes non consensuelles.
Le formulation directe La loi stipule qu’il est illégal de partager des médias qui « montrent ou semblent montrer » une autre personne dans un état intime. Bien que cela couvre largement la pornographie deepfake non consensuelle, le problème est que ce n’est pas son objectif principal.
C’est, selon Baines, ce que vise à résoudre le nouvel amendement proposé au projet de loi sur la justice pénale. Celui-ci « vise à criminaliser la création à l’aide de la technologie numérique d’images intimes sans consentement, que le créateur ait ou non l’intention de les partager ».
En d’autres termes, le prochain amendement cible directement la question de la pornographie deepfake non consensuelle. Alors que les lois existantes pourraient être appliquées pour poursuivre les criminels qui réussissent, ce nouvel amendement s’y attaque de front.
Comment l’UE traite la pornographie deepfake non consensuelle
« L’UE n’a pas de réglementation spécifique sur [nonconsensual] pornographie deepfake », a déclaré le professeur Cristina Vanberghen à TNW.
Vanberghen est expert senior chez la Commission européenneoù elle se concentre sur l’IA, DMLA, DSAet la politique de cybersécurité. Elle dit que la pornographie deepfake non consensuelle est rendue illégale par les réglementations existantes, en particulier « une interprétation corroborante des règles du RGPD, de la DSA, des lois nationales et des mesures proposées comme celles existantes dans l’IA ».
En effet, « l’utilisation des images et des vidéos d’une personne dans un deepfake sans son consentement peut être considérée comme une violation du RGPD » et la DSA « impose des obligations plus strictes aux plateformes en ligne pour supprimer rapidement les contenus illégaux et la désinformation, qui peuvent s’étendre à la pornographie deepfake ».
Selon Asha Allen, directrice et secrétaire générale de CDT Europe, l’UE a ouvert une autre voie pour lutter contre les contenus illégaux. Plus précisément, son adoption du directive sur les violences basées sur le genre.
Allen dit que cela « fait de la création et de la diffusion ultérieure d’images deepfakes qui donnent l’impression qu’une personne se livre à des activités sexuellement explicites, sans le consentement de cette personne, une infraction pénale ».
Sur le papier, c’est une grande avancée, mais il existe une différence importante entre une directive comme celle-ci et un règlement. Selon les mots de l’UEun règlement – comme ceux évoqués par Vanberghen – est un acte législatif contraignant qui doit être appliqué dans son intégralité dans toute l’UE.
Une directive, en revanche, fixe un objectif. Il appartient alors à « chaque pays d’élaborer ses propres lois sur la manière d’atteindre [it].» En ce qui concerne la directive sur les violences basées sur le genre, les États membres ont jusqu’au 14 juin 2027 pour l’adopter dans leur législation ou politique nationale. Naturellement, cela pose toute une série de problèmes.
Le besoin de clarté contre la pornographie deepfake non consensuelle
« Des règles communes sur la pornographie deepfake sont cruciales », déclare Vanberghen. Celles-ci doivent définir « des limites et des répercussions sans ambiguïté pour dissuader les comportements malveillants » et garantir que les victimes disposent de voies légales de protection et de recours.
Le problème autour de l’adoption de la directive sur la violence basée sur le genre est qu’elle pourrait conduire à des réglementations incohérentes entre les juridictions. Ceci, à son tour, peut créer des faiblesses que les auteurs de deepfake pornographie non consensuelle peuvent exploiter, laissant les victimes vulnérables.
Un exemple en est l’amendement du Royaume-Uni au projet de loi sur la justice pénale. La Coalition pour mettre fin à la violence contre les femmes (EVAW) fait remarquer que « le seuil d’application de cette nouvelle loi repose sur les intentions de l’auteur », plutôt que sur le consentement de la victime de la pornographie deepfake non consensuelle à sa création.
Andrea Simon, la directrice d’EVAW, affirme que cela entraînera « une énorme lacune dans la loi » qui donnera « aux auteurs des crimes une carte de sortie de prison gratuite », car il est extrêmement difficile de prouver leur intention devant un tribunal. Dans cet état, l’accusation devrait prouver que le but du créateur était spécifiquement de provoquer l’alarme, l’humiliation ou la détresse. Selon Simon, cela « empêchera en fin de compte les victimes d’accéder à la justice ».
Et c’est là le plus intéressant : même dans les endroits où il existe une réglementation contre la pornographie deepfake non consensuelle, il faut encore plus de clarté afin de protéger correctement les victimes.
Faire passer les lois au sein de l’UE
Deux choses semblent claires. La nécessité d’une réglementation spécifique et réfléchie contre la pornographie deepfake non consensuelle dans l’UE – et le fait que cela finira par se produire. Le problème, explique Allen, est que « le processus législatif de l’UE est intrinsèquement long », car il doit traverser 27 pays, sept groupes politiques et le Conseil européen. Les choses n’arrivent pas rapidement dans l’UE pour une bonne raison.
Mais même lorsque (ou si) une réglementation directe intervient contre la pornographie deepfake non consensuelle, cela ne signifie pas qu’elle résoudra tout immédiatement.
S’adressant à Bill Eichner du Centre d’analyse des politiques européennes, LCPE, dit-il, l’Europe « a tendance à réglementer puis à lutter pour la faire respecter en raison de la nature fragmentée de l’Union européenne ». A titre d’exemple, il pointe vers le RGPD et comment il a donné « le mot à dire sur Google et Meta à l’Irlande, et sur Amazon au Luxembourg », aucun des deux n’ayant l’intention de sévir.
Avec des réglementations plus récentes comme la DSA, Eichner affirme « qu’elles ont renforcé l’application de la loi à Bruxelles » et rendu l’administration plus centralisée. Il estime cependant que le problème est basé sur les ressources, dans la mesure où la partie de la Commission européenne qui s’occupe des réglementations telles que la DSA est souvent composée de « seulement une poignée de fonctionnaires ».
Ceci, combiné à la structure de l’UE, peut faire de l’application de la loi un cauchemar – et il n’y a aucune raison de croire que la répression de la pornographie deepfake non consensuelle serait différente.
Utiliser la technologie pour lutter contre la pornographie deepfake non consensuelle
«Je pense que mettre fin à la pornographie deepfake présente des défis importants, semblables à ceux de la cybersécurité», déclare Vanberghen. Mais cela ne veut pas dire que nous ne pouvons pas le combattre.
Vanberghen souligne notamment le développement d’outils basés sur l’IA capables de détecter les contenus deepfakes, afin que les opérateurs puissent les supprimer rapidement et efficacement.
Allen partage un point de vue similaire, mais souligne que la création de ces outils nécessite des recherches approfondies, de sorte que les techniques utilisées sont « efficaces, proportionnées et aboutissent à des résultats équitables ».
Malheureusement, il est peu probable que la pornographie deepfake non consensuelle disparaisse complètement de la société. Comme le dit Vanberghen, « même si une éradication complète est peut-être irréalisable, une réduction significative est réalisable grâce à des mesures proactives et à des efforts de collaboration entre divers secteurs ».
Baines du BCS soutient cette pensée. Elle souligne qu’au-delà des « mesures techniques et des mesures de dissuasion juridiques, nous allons devoir essayer de réduire la stigmatisation liée à la contrefaçon profonde en sensibilisant au fait qu’il ne s’agit pas d’images réelles ».
Effort concerté pour lutter contre les abus des deepfakes
L’idée est qu’à côté des mesures techniques, il faut une action sociétale et éducative contre les contenus illégaux. Ceci, combiné à un financement accru pour ceux qui cherchent à poursuivre les auteurs de ces actes, pourrait réduire considérablement les dommages causés.
En fin de compte, la pornographie deepfake non consensuelle ne disparaîtra pas d’elle-même. Cela nécessite un effort concerté dans tous les aspects du gouvernement et de la société pour mettre en évidence ce dont il s’agit : un abus.
Des réglementations à l’échelle européenne contre la création de deepfake pornographie non consensuelle sont nécessaires, mais cela ne suffira pas à lui seul. Il faut plutôt un cadre pour faire appliquer ces lois. La technologie peut jouer un rôle essentiel à cet égard, mais un impératif culturel est également nécessaire : un peu comme la conduite en état d’ébriété.
Oui, à mesure que la technologie évolue, elle sera inévitablement utilisée à des fins malveillantes. Pourtant, les choses ne sont pas si simples. Les outils mêmes qui permettent les activités malveillantes peuvent également les empêcher. Nous ne pouvons peut-être pas empêcher le soleil de se lever et de se coucher, mais nous pouvons influencer la manière dont les humains utilisent la technologie. Espérons juste que cela arrivera bientôt.
juillet 30, 2024
La pornographie deepfake non consensuelle est un fléau pour la société : voici comment l’Europe peut la combattre
Au moment où le soleil se lève et se couche, certaines choses sont inévitables. Pensez à la technologie. Dès que quelque chose de nouveau apparaît, les gens trouvent invariablement le moyen d’en abuser. Ces dernières années, ce rôle est revenu à l’intelligence artificielle (IA) et l’un de ses effets secondaires les plus troublants : la montée de la pornographie deepfake non consensuelle.
L’idée est aussi simple qu’horrible : utiliser la technologie numérique pour créer des images ou des vidéos fausses et explicites de quelqu’un. Bien que cela bouillonne au cœur d’Internet depuis plusieurs années, les récentes améliorations apportées aux outils d’IA signifient que ce type de contenu devient plus facile à créer – et bien pire pour les victimes.
Heureusement, les autorités en prennent note. La Grande-Bretagne a annoncé la première loi de ce type pour lutter directement contre la pornographie deepfake non consensuelle via un amendement au projet de loi sur la justice pénale. Parallèlement, l’UE dispose d’une série de lois et de directives qu’elle peut utiliser pour lutter contre ces pratiques malveillantes. C’est du moins l’espoir.
La question est de savoir si la réglementation est un outil efficace pour lutter contre la pornographie deepfake non consensuelle et s’il existe un moyen de l’éradiquer complètement.
Un mot sur la terminologie
Le
Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!
À ce stade, vous vous demandez peut-être pourquoi nous utilisons l’expression « pornographie deepfake non consensuelle » plutôt que l’expression plus courante « porno deepfake » ?
Eh bien, le professeur Victoria Baines — une Boursier BCS et une autorité leader en matière de cybersécurité — explique que raccourcir le terme en « deepfake porn » est considéré par les militants pour la sécurité en ligne comme « minimiser un comportement nuisible par l’abréviation ».
Comme le souligne Baines, « en fin de compte, il s’agit d’abus en ligne, pas de porno ». Plus nous parlons clairement du problème, meilleures sont nos chances de le combattre. Et, sur cette note, examinons comment les gouvernements traitent actuellement la pornographie deepfake non consensuelle.
Quelles sont les lois au Royaume-Uni ?
Bains affirme que malgré le prochain amendement au projet de loi sur la justice pénale, au Royaume-Uni, il s’agit « déjà d’une infraction pénale en vertu de l’article 188 de la loi ». la loi sur la sécurité en ligne pour partager des images intimes non consensuelles.
Le formulation directe La loi stipule qu’il est illégal de partager des médias qui « montrent ou semblent montrer » une autre personne dans un état intime. Bien que cela couvre largement la pornographie deepfake non consensuelle, le problème est que ce n’est pas son objectif principal.
C’est, selon Baines, ce que vise à résoudre le nouvel amendement proposé au projet de loi sur la justice pénale. Celui-ci « vise à criminaliser la création à l’aide de la technologie numérique d’images intimes sans consentement, que le créateur ait ou non l’intention de les partager ».
En d’autres termes, le prochain amendement cible directement la question de la pornographie deepfake non consensuelle. Alors que les lois existantes pourraient être appliquées pour poursuivre les criminels qui réussissent, ce nouvel amendement s’y attaque de front.
Comment l’UE traite la pornographie deepfake non consensuelle
« L’UE n’a pas de réglementation spécifique sur [nonconsensual] pornographie deepfake », a déclaré le professeur Cristina Vanberghen à TNW.
Vanberghen est expert senior chez la Commission européenneoù elle se concentre sur l’IA, DMLA, DSAet la politique de cybersécurité. Elle dit que la pornographie deepfake non consensuelle est rendue illégale par les réglementations existantes, en particulier « une interprétation corroborante des règles du RGPD, de la DSA, des lois nationales et des mesures proposées comme celles existantes dans l’IA ».
En effet, « l’utilisation des images et des vidéos d’une personne dans un deepfake sans son consentement peut être considérée comme une violation du RGPD » et la DSA « impose des obligations plus strictes aux plateformes en ligne pour supprimer rapidement les contenus illégaux et la désinformation, qui peuvent s’étendre à la pornographie deepfake ».
Selon Asha Allen, directrice et secrétaire générale de CDT Europe, l’UE a ouvert une autre voie pour lutter contre les contenus illégaux. Plus précisément, son adoption du directive sur les violences basées sur le genre.
Allen dit que cela « fait de la création et de la diffusion ultérieure d’images deepfakes qui donnent l’impression qu’une personne se livre à des activités sexuellement explicites, sans le consentement de cette personne, une infraction pénale ».
Sur le papier, c’est une grande avancée, mais il existe une différence importante entre une directive comme celle-ci et un règlement. Selon les mots de l’UEun règlement – comme ceux évoqués par Vanberghen – est un acte législatif contraignant qui doit être appliqué dans son intégralité dans toute l’UE.
Une directive, en revanche, fixe un objectif. Il appartient alors à « chaque pays d’élaborer ses propres lois sur la manière d’atteindre [it].» En ce qui concerne la directive sur les violences basées sur le genre, les États membres ont jusqu’au 14 juin 2027 pour l’adopter dans leur législation ou politique nationale. Naturellement, cela pose toute une série de problèmes.
Le besoin de clarté contre la pornographie deepfake non consensuelle
« Des règles communes sur la pornographie deepfake sont cruciales », déclare Vanberghen. Celles-ci doivent définir « des limites et des répercussions sans ambiguïté pour dissuader les comportements malveillants » et garantir que les victimes disposent de voies légales de protection et de recours.
Le problème autour de l’adoption de la directive sur la violence basée sur le genre est qu’elle pourrait conduire à des réglementations incohérentes entre les juridictions. Ceci, à son tour, peut créer des faiblesses que les auteurs de deepfake pornographie non consensuelle peuvent exploiter, laissant les victimes vulnérables.
Un exemple en est l’amendement du Royaume-Uni au projet de loi sur la justice pénale. La Coalition pour mettre fin à la violence contre les femmes (EVAW) fait remarquer que « le seuil d’application de cette nouvelle loi repose sur les intentions de l’auteur », plutôt que sur le consentement de la victime de la pornographie deepfake non consensuelle à sa création.
Andrea Simon, la directrice d’EVAW, affirme que cela entraînera « une énorme lacune dans la loi » qui donnera « aux auteurs des crimes une carte de sortie de prison gratuite », car il est extrêmement difficile de prouver leur intention devant un tribunal. Dans cet état, l’accusation devrait prouver que le but du créateur était spécifiquement de provoquer l’alarme, l’humiliation ou la détresse. Selon Simon, cela « empêchera en fin de compte les victimes d’accéder à la justice ».
Et c’est là le plus intéressant : même dans les endroits où il existe une réglementation contre la pornographie deepfake non consensuelle, il faut encore plus de clarté afin de protéger correctement les victimes.
Faire passer les lois au sein de l’UE
Deux choses semblent claires. La nécessité d’une réglementation spécifique et réfléchie contre la pornographie deepfake non consensuelle dans l’UE – et le fait que cela finira par se produire. Le problème, explique Allen, est que « le processus législatif de l’UE est intrinsèquement long », car il doit traverser 27 pays, sept groupes politiques et le Conseil européen. Les choses n’arrivent pas rapidement dans l’UE pour une bonne raison.
Mais même lorsque (ou si) une réglementation directe intervient contre la pornographie deepfake non consensuelle, cela ne signifie pas qu’elle résoudra tout immédiatement.
S’adressant à Bill Eichner du Centre d’analyse des politiques européennes, LCPE, dit-il, l’Europe « a tendance à réglementer puis à lutter pour la faire respecter en raison de la nature fragmentée de l’Union européenne ». A titre d’exemple, il pointe vers le RGPD et comment il a donné « le mot à dire sur Google et Meta à l’Irlande, et sur Amazon au Luxembourg », aucun des deux n’ayant l’intention de sévir.
Avec des réglementations plus récentes comme la DSA, Eichner affirme « qu’elles ont renforcé l’application de la loi à Bruxelles » et rendu l’administration plus centralisée. Il estime cependant que le problème est basé sur les ressources, dans la mesure où la partie de la Commission européenne qui s’occupe des réglementations telles que la DSA est souvent composée de « seulement une poignée de fonctionnaires ».
Ceci, combiné à la structure de l’UE, peut faire de l’application de la loi un cauchemar – et il n’y a aucune raison de croire que la répression de la pornographie deepfake non consensuelle serait différente.
Utiliser la technologie pour lutter contre la pornographie deepfake non consensuelle
«Je pense que mettre fin à la pornographie deepfake présente des défis importants, semblables à ceux de la cybersécurité», déclare Vanberghen. Mais cela ne veut pas dire que nous ne pouvons pas le combattre.
Vanberghen souligne notamment le développement d’outils basés sur l’IA capables de détecter les contenus deepfakes, afin que les opérateurs puissent les supprimer rapidement et efficacement.
Allen partage un point de vue similaire, mais souligne que la création de ces outils nécessite des recherches approfondies, de sorte que les techniques utilisées sont « efficaces, proportionnées et aboutissent à des résultats équitables ».
Malheureusement, il est peu probable que la pornographie deepfake non consensuelle disparaisse complètement de la société. Comme le dit Vanberghen, « même si une éradication complète est peut-être irréalisable, une réduction significative est réalisable grâce à des mesures proactives et à des efforts de collaboration entre divers secteurs ».
Baines du BCS soutient cette pensée. Elle souligne qu’au-delà des « mesures techniques et des mesures de dissuasion juridiques, nous allons devoir essayer de réduire la stigmatisation liée à la contrefaçon profonde en sensibilisant au fait qu’il ne s’agit pas d’images réelles ».
Effort concerté pour lutter contre les abus des deepfakes
L’idée est qu’à côté des mesures techniques, il faut une action sociétale et éducative contre les contenus illégaux. Ceci, combiné à un financement accru pour ceux qui cherchent à poursuivre les auteurs de ces actes, pourrait réduire considérablement les dommages causés.
En fin de compte, la pornographie deepfake non consensuelle ne disparaîtra pas d’elle-même. Cela nécessite un effort concerté dans tous les aspects du gouvernement et de la société pour mettre en évidence ce dont il s’agit : un abus.
Des réglementations à l’échelle européenne contre la création de deepfake pornographie non consensuelle sont nécessaires, mais cela ne suffira pas à lui seul. Il faut plutôt un cadre pour faire appliquer ces lois. La technologie peut jouer un rôle essentiel à cet égard, mais un impératif culturel est également nécessaire : un peu comme la conduite en état d’ébriété.
Oui, à mesure que la technologie évolue, elle sera inévitablement utilisée à des fins malveillantes. Pourtant, les choses ne sont pas si simples. Les outils mêmes qui permettent les activités malveillantes peuvent également les empêcher. Nous ne pouvons peut-être pas empêcher le soleil de se lever et de se coucher, mais nous pouvons influencer la manière dont les humains utilisent la technologie. Espérons juste que cela arrivera bientôt.
Source link
Partager :
Articles similaires