Site icon Blog ARC Optimizer

Facebook et Twitter ont tenté d'arrêter l'intimidation des électeurs … et ils ont lamentablement échoué


Ni la désinformation ni l'intimidation des électeurs ne sont nouvelles. Mais les outils développés par les principales sociétés de technologie telles que Twitter, Facebook et Google permettent désormais à ces tactiques de augmenter considérablement .

En tant que spécialiste de la cybersécurité et de la sécurité électorale j'ai soutenu que ces entreprises doivent faire davantage pour freiner la désinformation, la répression numérique et la suppression des électeurs sur leurs plates-formes, notamment en traitant ces questions comme une question de responsabilité sociale des entreprises .

Plus tôt cet automne, Twitter a annoncé de nouvelles mesures pour lutter contre la désinformation y compris de fausses déclarations sur les risques du vote par correspondance. Facebook a également promis de réprimer la désinformation et l'intimidation des électeurs sur sa plate-forme, notamment en supprimant les messages qui encouragent les gens à surveiller les bureaux de vote .

Google a abandonné le domaine Proud Boys que l'Iran aurait utilisé pour envoyer des messages à quelque 25 000 démocrates enregistrés qui les menaçaient s'ils ne changeaient pas de parti et ne votaient pas pour Trump.

Mais une telle autorégulation bien qu'utile, ne peut aller que si loin. Le moment est venu pour les États-Unis d'apprendre des expériences d'autres pays et de tenir les entreprises technologiques responsables de veiller à ce que leurs plates-formes ne soient pas utilisées à mauvais escient pour saper les fondements démocratiques du pays.

[Lire: 4 ridiculement facile façons dont vous pouvez être plus respectueux de l'environnement ]

Intimidation des électeurs

Le 20 octobre, les démocrates enregistrés en Floride, un État swing crucial, et en Alaska, ont commencé à recevoir des courriels prétendument du groupe d'extrême droite Proud Boys. Les messages étaient remplis de menaces allant jusqu'à et y compris de violentes représailles si le receveur ne votait pas pour le président Trump et changeait son affiliation à un parti républicain.

Moins de 24 heures plus tard, le 21 octobre, États-Unis. Le directeur du renseignement national John Ratcliffe et le directeur du FBI Christopher Wray ont donné un exposé dans lequel ils attribuent publiquement cette tentative d'intimidation des électeurs à l'Iran. Ce verdict a été ultérieurement corroboré par Google, qui a également affirmé que plus de 90% de ces messages étaient bloqués par des filtres anti-spam.

Le timing rapide de l'attribution aurait été le résultat de la nature étrangère de la menace et du fait qu'elle approchait si près du jour du scrutin. Mais il est important de noter qu'il ne s'agit là que du dernier exemple d'une telle intimidation des électeurs. D'autres incidents récents incluent un système d'appel robotique ciblant en grande partie des villes afro-américaines telles que Detroit et Cleveland.

On ne sait toujours pas combien de ces messages ont réellement atteint les électeurs et comment ces menaces ont changé le comportement des électeurs. Il existe des preuves que de telles tactiques peuvent se retourner contre eux et conduire à des taux de participation plus élevés dans la population ciblée.

Désinformation sur les médias sociaux

Les campagnes de désinformation efficaces comportent généralement trois éléments :

  • Un média sponsorisé par l'État pour lancer la fabrication
  • Sources médiatiques alternatives désireuses de diffuser la désinformation sans vérifier adéquatement les faits sous-jacents
  • Des «agents d'influence» conscients ou involontaires: c'est-à-dire des gens pour faire avancer l'histoire dans d'autres points de vente

La Russie utilise une opération en ligne bien développée pour répandre la désinformation, selon le Département d'État américain. AP Photo / Jon Elswick

L'avènement du cyberespace a mis le processus de désinformation en surmenage, à la fois accélérant la propagation virale des histoires à travers les frontières nationales et les plates-formes avec facilité et provoquant une prolifération dans les types de médias traditionnels et sociaux voulant

À ce jour, les grandes entreprises de médias sociaux ont adopté une approche largement fragmentaire et fractionnée pour gérer ce problème complexe. Twitter a annoncé une interdiction des publicités politiques pendant la saison électorale américaine de 2020, en partie en raison des préoccupations concernant la diffusion de la désinformation. Facebook a opté pour une interdiction plus limitée des nouvelles publicités politiques une semaine avant les élections.

Les États-Unis n'ont pas d'équivalent de la loi française interdisant tout discours influent la veille d'un

Effets et contraintes

Les impacts de ces efforts ont été atténués, en partie à cause de la prévalence de robots sociaux qui diffusent viralement des informations de faible crédibilité sur ces plateformes. Il n’existe pas de données exhaustives sur la quantité totale de désinformation ou sur la façon dont elle affecte les utilisateurs.

Certaines études récentes font cependant la lumière. Par exemple, une étude 2019 a révélé qu'un très petit nombre d'utilisateurs de Twitter représentait la grande majorité de l'exposition à la désinformation.

Les plates-formes technologiques sont contraintes d'en faire plus par plusieurs forces. Celles-ci incluent la peur des préjugés politiques perçus et une forte croyance parmi beaucoup, y compris Mark Zuckerberg, dans une interprétation robuste de la liberté d'expression . Une préoccupation connexe des sociétés de plateformes est que plus elles sont perçues comme des gardiens des médias, plus elles seront susceptibles de faire face à une nouvelle réglementation.

Les sociétés de plateformes sont également limitées par les technologies et les procédures qu'elles utilisent pour lutter contre la désinformation et intimidation des électeurs. Par exemple, le personnel de Facebook aurait dû intervenir manuellement pour limiter la diffusion d'un article du New York Post sur l'ordinateur portable de Hunter Biden qui pourrait faire partie d'une campagne de désinformation . Cela met en évidence la façon dont les entreprises de plateforme rattrapent leur retard dans la lutte contre la désinformation et doivent consacrer plus de ressources à cet effort.

Options réglementaires

Il existe un consensus bipartisan croissant selon lequel il faut faire davantage pour freiner les excès et mieux gérer le double problème de l'intimidation des électeurs et de la désinformation. Ces dernières semaines, nous avons déjà vu le ministère américain de la Justice ouvrir une nouvelle affaire antitrust contre Google, qui, bien qu'elle ne soit pas liée à la désinformation, peut être comprise comme faisant partie d'une campagne plus large pour réglementer ces mastodontes.

Un autre outil à la disposition du gouvernement américain est de réviser voire de révoquer, l'article 230 de la Communications Decency Act des années 1990. Cette loi a été conçue pour protéger les entreprises de technologie au fur et à mesure qu'elles se développent de la responsabilité du contenu que les utilisateurs publient sur leurs sites. Beaucoup, y compris l’ancien vice-président Joe Biden soutiennent qu’elle a dépassé son utilité .

Une autre option à envisager est d’apprendre de l’approche de l’UE. En 2018, la Commission européenne a réussi à amener les entreprises technologiques à adopter le «Code de bonnes pratiques sur la désinformation», qui engageait ces entreprises à renforcer «la transparence autour de la publicité politique et axée sur les enjeux». Cependant, ces mesures de lutte contre la désinformation et le système d'alerte rapide de l'UE connexe n'ont jusqu'à présent pas été en mesure d'endiguer la vague de ces menaces.

Au lieu de cela, il y a de plus en plus d'appels à adopter une série de réformes pour garantir que les plates-formes publier des informations exactes, protéger les sources d'informations précises grâce à des exigences de cybersécurité améliorées et surveiller plus efficacement la désinformation. Les entreprises de technologie, en particulier, pourraient faire plus pour faciliter le signalement de la désinformation, contacter les utilisateurs qui ont interagi avec un tel contenu avec un avertissement et supprimer les fausses informations sur le vote, comme Facebook et Twitter ont commencé à le faire.

De telles étapes ne sont que le début. Tout le monde a un rôle à jouer pour rendre la démocratie plus difficile à pirater, mais les plates-formes technologiques qui ont tant contribué à ce problème ont le devoir démesuré de le résoudre.

Cet article est republié de The Conversation par Scott Shackelford professeur agrégé de droit des affaires et d'éthique; Directeur exécutif, Ostrom Workshop; Président du programme de cybersécurité, IU-Bloomington, Indiana University sous une licence Creative Commons. Lire l'article original .




Source link
Quitter la version mobile