Fermer

février 26, 2024

Un groupe de travail Meta pour lutter contre la désinformation sur les élections européennes alors que les craintes de deepfake grandissent

Un groupe de travail Meta pour lutter contre la désinformation sur les élections européennes alors que les craintes de deepfake grandissent



Méta lance un groupe de travail spécial dédié à la lutte contre la désinformation et les contenus abusifs générés par l’IA à l’approche des élections européennes de juin.

Le pouvoir des médias sociaux pour influencer le vote est bien établi documenté. Mais l’essor rapide de l’IA, capable de générer des images, des textes et des vidéos « deepfakes » d’une simple pression sur un bouton, a déclenché de nouveaux phénomènes. craintes que la technologie sera utilisée pour perturber les élections majeures à travers le monde cette année.

Dirigé par une équipe d’experts en renseignement au sein de l’entreprise, le nouveau « centre d’opérations » de Meta a été créé pour « identifier rapidement les menaces potentielles » et mettre en œuvre « des stratégies d’atténuation en temps réel », a déclaré le responsable des affaires européennes de la société, Marco Pancini.

L’annonce intervient quelques semaines seulement après TikTok mettre en avant c’est prépréparations pour les élections européennes, qui devraient être les élections de cette année deuxième plus grand vote démocratique au monde, derrière celui de l’Inde.

Dans le cadre du nouveau Loi sur les services numériques (DSA), les plateformes en ligne comptant plus de 45 millions d’utilisateurs mensuels moyens – comme Facebook et TikTok – sont obligées de prendre des mesures contre la désinformation et la manipulation électorale.

Que fait Meta ?

Meta a déclaré qu’elle supprimerait de ses plateformes Facebook, Instagram et Threads le contenu qui pourrait « contribuer à une violence imminente ou à des dommages physiques, ou qui vise à supprimer le vote ».

Outre la suppression des contenus illégaux, Meta élargira son équipe de vérificateurs de faits indépendants en ajoutant trois nouveaux partenaires en Bulgarie, en France et en Slovaquie.

Lorsque le contenu est « démystifié » par ces vérificateurs de faits, Meta appose des étiquettes d’avertissement et réduit sa distribution dans le flux afin que les gens soient moins susceptibles de le voir. Lorsqu’une de ces étiquettes est placée sur une publication, 95 % des personnes ne cliquent pas pour la voir, affirme l’entreprise.

« Avant la période électorale, nous allons permettre à tous nos partenaires de vérification des faits dans toute l’UE de trouver et d’évaluer plus facilement les contenus liés aux élections, car nous reconnaissons que la rapidité est particulièrement importante lors des événements d’actualité », a déclaré Pancini.

La menace du contenu généré par l’IA

Dans le cadre des efforts de Meta pour lutter contre les risques liés à l’IA, il ajoutera une nouvelle fonctionnalité permettant aux utilisateurs de divulguer lorsqu’ils partagent de la vidéo ou de l’audio généré par l’IA. L’entreprise a déclaré qu’elle pourrait même imposer des sanctions en cas de non-conformité, sans toutefois préciser ce que cela impliquerait.

Les annonceurs qui diffusent des publicités liées à des questions sociales, aux élections ou à la politique sur les plateformes Meta devront également divulguer s’ils utilisent une image, une vidéo ou un audio photoréaliste généré par l’IA.

Plus tôt ce mois-ci, 20 entreprises technologiques, dont Meta, Google, Microsoft, X, Amazon et TikTok, ont signé un gage pour réprimer le contenu de l’IA conçu pour induire les électeurs en erreur.

Les entreprises ne le sont pas s’engager à interdire ou supprimer les deepfakes. Au lieu de cela, l’accord décrit les méthodes qu’ils utiliseront pour tenter de détecter et d’étiqueter le contenu trompeur de l’IA lorsqu’il est créé ou distribué sur leurs plateformes.

Le pouvoir de l’IA de perturber les élections est déjà sous le feu des projecteurs.

Aux Etats-Unis, une publicité politique publiée par le Parti républicain l’année dernière dépeint un scénario dystopique en cas de réélection du président Joe Biden : explosions à Taipei lors de l’invasion chinoise, vagues de migrants provoquant la panique aux États-Unis et loi martiale imposée à San Francisco.

En novembre, un enregistrement du maire de Londres Sadiq Khan a fait circuler les médias sociaux. Il a appelé à Jour de l’Armistice les commémorations doivent être reportées pour permettre la tenue d’une marche pro-palestinienne.

La vidéo et l’audio étaient des contrefaçons générées par l’IA. Khan plus tard averti que les deepfakes pourraient faire basculer des élections britanniques serrées.

« L’ère des deepfakes et des contenus générés par l’IA pour induire en erreur et perturber est déjà en jeu », a déclaré le ministre britannique de l’Intérieur, James Cleverly. Les temps hier.

Le secrétaire a averti que les criminels et les « acteurs malveillants » travaillant pour le compte d’États malveillants pourraient utiliser des « deepfakes » générés par l’IA pour détourner les élections générales.

Cet avertissement intervient au milieu de la plus grande année électorale de l’histoire mondiale. On estime que 2 milliards de personnes dans le monde voteront aux élections nationales tout au long de 2024, notamment au Royaume-Uni, aux États-Unis, en Inde, en Afrique du Sud et dans 60 autres pays.




Source link