Fermer

juillet 12, 2020

L'anatomie d'un faux titre


Alors que des affrontements entre les manifestants de Black Lives Matter et la police éclataient à travers le pays au début du mois, certains Oregonians, pour la plupart des personnes âgées, ont vu une publicité sur Facebook faisant la une des journaux sur la façon dont un politicien républicain «veut que la loi martiale contrôle l'Obama-Soros Antifa Les supersoldats. »

Il va sans dire qu'il n'y avait pas d'armée de« supersoldats »de gauche traversant l'Oregon, ni l'ancien président Barack Obama et le milliardaire George Soros connus pour financer quoi que ce soit lié à l'antifa. Et le politicien en question n'a pas vraiment dit qu'il y avait des «supersoldats». Le titre, originaire du blog souvent sarcastique et progressiste Wonkette, n'a jamais été conçu comme une simple information.

Le tout était un incident né de l'ère de l'actualité moderne, dans lequel les titres que vous voyez ne sont pas décidés par un éditeur de première page durement mordu mais plutôt par des couches d'algorithmes conçues pour choisir ce qui est nouveau et qui devrait le montrer. Ce système peut très bien fonctionner, mais dans ce cas, il a alimenté un maelström de désinformation qui inspirait déjà certains occidentaux à saisir leurs armes et garder leurs villes contre les non – menace existante de fauteurs de troubles antifa en dehors de la ville

Ce n'était qu'un titre qui alimentait un sentiment de paranoïa renforcé par des rumeurs provenant de nombreuses sources. Mais déconstruire exactement comment cela s'est produit fournit une fenêtre sur la facilité avec laquelle une théorie du complot marginal se glisse accidentellement dans l'écosystème des nouvelles en ligne traditionnelles.

Le problème a commencé lorsque SmartNews a repris l'histoire moqueuse de Wonkette. SmartNews est une application d'agrégation de nouvelles qui attire les utilisateurs en plaçant près d'un million de dollars de publicités sur Facebook, selon les données publiées par Facebook . Selon l'énoncé de mission de la startup ses «algorithmes évaluent des millions d'articles, de signaux sociaux et d'interactions humaines pour fournir les 0,01% des histoires les plus importantes, en ce moment.»

La société, qui dit que «les informations doivent être impartiales, tendances et dignes de confiance», choisit généralement les gros titres des nouvelles locales ordinaires pour ses publicités Facebook, peut-être de votre station de télévision locale. Les utilisateurs qui installent l'application obtiennent des titres sur leur région d'origine et les sujets d'intérêt, organisés par les algorithmes de SmartNews. Cette fois, cependant, le titre provenait de Wonkette, dans une histoire se moquant de Jo Rae Perkins, candidate républicaine du Sénat américain de l'Oregon, qui a déclenché la controverse pour sa promotion des théories du complot.

Début juin, alors que des manifestations contre la violence policière se multipliaient dans les villes rurales du pays, Perkins a enregistré une vidéo en direct sur Facebook appelant à une «loi martiale sévère» pour «écraser» les «voyous antifa» qui se rendraient dans diverses villes de l'Oregon. Elle a également lié des manifestants, sans fondement, à des cibles de droite communes: «Beaucoup, beaucoup de gens croient qu'ils sont payés par George Soros», a-t-elle dit, et «c'est l'armée qu'Obama a constituée il y a quelques années».

Perkins n'a jamais dit «supersoldier» – le terme est apparemment une blague Twitterverse dans ce cas ajouté à son titre par Wonkette pour se moquer de la peur apparente de Perkins envers les manifestants. Pour quelqu'un qui connaît son style sardonique impassible, voir le titre hyperbolique sur le site Web de Wonkette ne lèverait pas un sourcil – les lecteurs réguliers sauraient que Wonkette se moquait de Perkins. Mais c'est 2020, et même les gros titres de blogs insulaires peuvent voyager en dehors des flux RSS de leurs lecteurs et se frayer un chemin via les réseaux sociaux dans des zones où Wonkette n'est pas largement connue. SmartNews, lorsqu'il a automatiquement supprimé le titre de Wonkette de son association avec Wonkette et l'a présenté de manière neutre dans l'annonce, a incarné ce phénomène. une bannière comme «Charles County news» correspondant au nom du comté où l'annonce a été diffusée. C'est une stratégie que la société utilise des milliers de fois par jour.

Le vice-président de SmartNews, Rich Jaroslovsky, a déclaré que, dans ce cas, ses algorithmes n'avaient rien fait de mal en choisissant le titre ironique à montrer aux lecteurs existants. Le problème, dit-il, est que le titre a été montré aux mauvaises personnes.

SmartNews, dit-il, concentre "énormément de temps, d'efforts et de talent" sur ses algorithmes pour recommander des articles aux utilisateurs de l'application SmartNews. Ces algorithmes auraient orienté l'histoire d'Antifa vers «des personnes qui ont vraisemblablement un intérêt démontré pour le genre de choses dans lesquelles Wonkette se spécialise». Pour ces lecteurs et dans ce contexte, a-t-il dit, l'histoire n'était pas problématique.

"Les problèmes sont survenus lorsqu'elle a été retirée de son contexte et placée dans un autre" pour la publicité Facebook qui n'est visée par aucun critère autre que la géographie. "De toute évidence, cela n'aurait pas dû se produire, et nous prenons un certain nombre de mesures pour nous assurer de résoudre les problèmes que vous avez signalés", a déclaré Jaroslovsky.

SmartNews cible ses publicités sur des personnes dans des zones géographiques particulières – dans ce cas, 32 des 36 comtés de l'Oregon.

Mais Facebook avait d'autres idées: ses algorithmes ont choisi de montrer massivement la publicité «antifa supersoldiers» aux personnes de plus de 55 ans, selon les données publiées par Facebook sur les annonces qu'il considère comme politiques. Sans aucun doute, beaucoup de ces téléspectateurs ont ignoré l'annonce, ou n'ont pas été dupes, mais la démographie choisie par Facebook est une démographie qu'une étude récente de l'Université de New York a montré qu'elle a tendance à partager plus fréquemment la désinformation sur les médias sociaux.

Ce choix par les algorithmes de Facebook est puissant: Un article académique a montré que Facebook évalue le contenu des publicités et les oriente parfois de manière disproportionnée vers les utilisateurs ayant un sexe, une race ou une vision politique particulière. (Le journal n'a pas étudié l'âge.)

Facebook ne permet pas non plus de savoir exactement combien de personnes ont vu la publicité des supersoldats antifa de SmartNews. Le portail de transparence de la société indique que l'annonce a été diffusée entre 197 et 75 000 fois, sur environ 75 variantes (basées sur Android et iPhone et le nombre de pays). Facebook a refusé de fournir des données plus spécifiques.

Facebook ne considère pas que les publicités ont enfreint les règles de l'entreprise. Les publicités sont examinées "principalement" par des mécanismes automatisés, a déclaré le porte-parole de Facebook Devon Kearns au Markup, il est donc peu probable qu'un être humain sur Facebook ait vu les publicités avant de les diffuser. Cependant, "les annonces diffusées avec des titres satiriques sortis de leur contexte sont éligibles" pour être vérifiées, a déclaré Kearns, et les annonces jugées fausses sont supprimées. (Habituellement, la satire et l'opinion dans les publicités sont exemptées d'être marquées comme «désinformation» dans la politique de vérification des faits de Facebook, sauf si elles sont présentées hors contexte.)

L'éditeur de Wonkette, Rebecca Schoenkopf, a déclaré au Markup qu'elle n'était pas au courant de SmartNews faisait la promotion du contenu de son site avec des publicités Facebook, mais n'était pas nécessairement contre. En théorie, au moins, cela pourrait avoir pour effet d'attirer plus de lecteurs sur son site.

Ironiquement, dit-elle, Wonkette a une présence limitée sur Facebook. Ces dernières années, la portée des publications de Wonkette sur la plate-forme avait presque diminué.

Suivre la chaîne d'informations de la vidéo Facebook de Perkins jusqu'à l'annonce SmartNews permet de voir facilement comment une série d'acteurs a pris la même chose contenu original – une vidéo de Perkins épousant les théories du complot – et l'amplifié pour l'adapter à leurs propres motivations. Chacun de ces liens a créé un potentiel de désinformation, où le contexte nécessaire à la compréhension pourrait être supprimé.

Lindsay Schubiner, directrice de programme au Portland States Ore., Basé au Western States Center, qui œuvre pour lutter contre l'extrémisme d'extrême droite dans le Pacifique Nord-Ouest, a déclaré à The Markup que, même si les médias sociaux ont eu un effet démocratisant sur l'information, c'est aussi un format idéal pour diffuser la désinformation.

"La publicité SmartNews – par inadvertance ou non – s'est jointe à un chœur de faux, messages trompeurs et racistes de nationalistes blancs en réponse aux manifestations de Black Lives Matter », a écrit Schubiner dans un e-mail. «Beaucoup de ces postes ont été échangés contre l'antisémitisme, qui a longtemps été une réponse incontournable pour les nationalistes blancs cherchant à expliquer leurs pertes politiques.»

Dans ce cas, l'annonce, a-t-elle dit, pourrait promulguer la droite commune. trope que Soros, qui est juif, finance des manifestations de masse pour des causes de gauche.

"Ces théories du complot sectaire ont contribué à alimenter une vague d'activités d'extrême droite et d'organisation", a-t-elle poursuivi. "Il est certainement possible que les publicités aient contribué à l'organisation d'extrême droite dans l'Oregon en réponse à de fausses rumeurs sur les rassemblements antifascistes dans les petites villes."

Ces théories du complot ont eu des conséquences réelles. Des résidents qui détiennent des armes à feu dans l'État de Washington voisin ont harcelé une famille multiraciale qui campait dans un autobus scolaire converti, les piégeant avec des arbres abattus, les croyant apparemment à tort être antifa. La famille n'a pu s'échapper qu'avec l'aide de quelques lycéens locaux armés de tronçonneuses pour se frayer un chemin vers la liberté.

Cet article a été initialement publié sur The Markup par Jeremy B. Merrill et Aaron Sankinand et a été republié sous la licence Creative Commons Attribution-NonCommercial-NoDerivatives .

Pssst, Hé vous!

Voulez-vous recevoir la newsletter technique quotidienne la plus sassée chaque jour, dans votre boîte de réception, GRATUITEMENT? Bien sûr, vous le faites: inscrivez-vous au Big Spam ici .




Source link