Fermer

septembre 14, 2021

Votre « engagement » sur les réseaux sociaux vous rend vulnérable à la manipulation


Facebook a expérimenté discrètement la réduction de la quantité de contenu politique qu'il met dans les fils d'actualité des utilisateurs. Cette décision est une reconnaissance tacite que le fonctionnement des algorithmes de l'entreprise peut être un problème .

Le cœur du problème est la distinction entre provoquer une réponse et fournir le contenu que les gens veulent. Les algorithmes des réseaux sociaux – les règles que leurs ordinateurs suivent pour décider du contenu que vous voyez – dépendent fortement du comportement des gens pour prendre ces décisions. En particulier, ils surveillent le contenu auquel les gens réagissent ou « interagissent » en l'aimant, en commentant et en le partageant. la logique d'utiliser la sagesse des foules dans ces algorithmes. Je vois également des pièges importants dans la façon dont les sociétés de médias sociaux le font dans la pratique.

Des lions dans la savane aux likes sur Facebook

Le concept de la sagesse des foules suppose que l'utilisation des signaux des actions, des opinions et des préférences des autres comme guide conduira à des décisions judicieuses. Par exemple, les prédictions collectives sont normalement plus précises que les prédictions individuelles. L'intelligence collective est utilisée pour prédire les marchés financiers, les sportsles élections et même les épidémies.

Au cours de millions d'années d'évolution, ces principes ont été codés dans le cerveau humain sous la forme de biais cognitifs qui viennent avec des noms comme familiaritymere-exposure et bandwagon effect. Si tout le monde se met à courir, vous devriez également commencer à courir ; peut-être que quelqu'un a vu un lion venir et courir pourrait vous sauver la vie. Vous ne savez peut-être pas pourquoi, mais il est plus sage de poser des questions plus tard.

Votre cerveau capte des indices de l'environnement – y compris vos pairs – et utilise des règles simples pour traduire rapidement ces signaux en décisions : allez avec le gagnant, suivez la majorité, copiez votre voisin. Ces règles fonctionnent remarquablement bien dans des situations typiques car elles sont basées sur des hypothèses solides. Par exemple, ils supposent que les gens agissent souvent de manière rationnelle, il est peu probable que beaucoup se trompent, le passé prédit l'avenir, et ainsi de suite.

La technologie permet aux gens d'accéder aux signaux d'un plus grand nombre d'autres personnes, dont la plupart ils ne sait pas. Les applications d'intelligence artificielle font un usage intensif de ces signaux de popularité ou d'« engagement », de la sélection des résultats des moteurs de recherche à la recommandation de musique et de vidéos, et de la suggestion d'amis au classement des publications sur les fils d'actualité.

Tout ce qui est viral ne mérite pas d'être

Notre la recherche montre que pratiquement toutes les plateformes technologiques Web, telles que les médias sociaux et les systèmes de recommandation d'actualités, ont un fort biais de popularité. Lorsque les applications sont motivées par des indices tels que l'engagement plutôt que par des requêtes explicites des moteurs de recherche, le biais de popularité peut entraîner des conséquences imprévues néfastes.

Les médias sociaux comme Facebook, Instagram, Twitter, YouTube et TikTok s'appuient fortement sur les algorithmes d'IA pour classer et recommander le contenu . Ces algorithmes prennent en entrée ce que vous « aimez », commentez et partagez – en d'autres termes, le contenu avec lequel vous interagissez. L'objectif des algorithmes est de maximiser l'engagement en découvrant ce que les gens aiment et en le classant en haut de leurs flux.

Une introduction à l'algorithme Facebook.

À première vue, cela semble raisonnable. Si les gens aiment les nouvelles crédibles, les opinions d'experts et les vidéos amusantes, ces algorithmes devraient identifier un contenu de cette qualité. Mais la sagesse des foules fait ici une hypothèse clé : que recommander ce qui est populaire aidera un contenu de haute qualité à « bouillonner ». mélange de qualité et de popularité. Nous avons constaté qu'en général, le biais de popularité est plus susceptible de réduire la qualité globale du contenu. La raison en est que l'engagement n'est pas un indicateur fiable de qualité lorsque peu de personnes ont été exposées à un élément. Dans ces cas, l'engagement génère un signal bruité, et l'algorithme est susceptible d'amplifier ce bruit initial. Une fois que la popularité d'un article de mauvaise qualité est suffisamment grande, elle continuera à s'amplifier.

Les algorithmes ne sont pas la seule chose affectée par le biais d'engagement – ils peuvent affecter les gens aussi. Les preuves montrent que les informations sont transmises par « contagion complexe », ce qui signifie que plus une personne est exposée à une idée en ligne, plus elle est susceptible de l'adopter et de la partager. Lorsque les médias sociaux annoncent aux gens qu'un élément devient viral, leurs biais cognitifs se manifestent et se traduisent par une envie irrésistible d'y prêter attention et de le partager.

Des foules pas si sages

Nous avons récemment mené une expérience utilisant une application d'alphabétisation appelée Fakey. C'est un jeu développé par notre laboratoire, qui simule un fil d'actualité comme ceux de Facebook et Twitter. Les joueurs voient un mélange d'articles actuels provenant de fausses nouvelles, de la science indésirable, de sources hyper-partisanes et complotistes, ainsi que de sources grand public. Ils obtiennent des points pour partager ou aimer des nouvelles provenant de sources fiables et pour signaler des articles peu crédibles pour vérification des faits.

Nous avons constaté que les joueurs sont plus susceptibles d'aimer ou de partager et moins susceptibles de signaler les articles de sources de faible crédibilité lorsque les joueurs peuvent voir que de nombreux autres utilisateurs ont interagi avec ces articles. L'exposition aux métriques d'engagement crée ainsi une vulnérabilité.

La sagesse des foules échoue car elle repose sur la fausse hypothèse que la foule est composée de sources diverses et indépendantes. Il peut y avoir plusieurs raisons pour lesquelles ce n'est pas le cas.

Premièrement, en raison de la tendance des gens à s'associer avec des personnes similaires, leurs quartiers en ligne ne sont pas très diversifiés. La facilité avec laquelle un utilisateur de médias sociaux peut se séparer de ceux avec qui il est en désaccord pousse les gens dans des communautés homogènes, souvent appelées chambres d'écho.

Deuxièmement, parce que de nombreux amis sont amis les uns des autres, ils s'influencent mutuellement. Une expérience célèbre a démontré que le fait de savoir quelle musique vos amis aiment affecte vos propres préférences déclarées. Votre désir social de vous conformer fausse votre jugement indépendant.

Troisièmement, les signaux de popularité peuvent être joués. Au fil des ans, les moteurs de recherche ont développé des techniques sophistiquées pour contrer les soi-disant « fermes de liens  » et d'autres schémas pour manipuler les algorithmes de recherche. D'un autre côté, les plateformes de médias sociaux commencent tout juste à découvrir leurs propres vulnérabilités.

Les personnes visant à manipuler le marché de l'information ont créé de faux comptescomme des trolls et bots sociauxet organiséfaux réseaux. Ils ont inondé le réseau pour donner l'impression qu'une théorie du complot ou un candidat politique est populaire, trompant à la fois les algorithmes de plate-forme et les biais cognitifs des gens. Ils ont même modifié la structure des réseaux sociaux pour créer des illusions sur les opinions majoritaires.

Faire baisser l'engagement

Que faire ? Les plateformes technologiques sont actuellement sur la défensive. Ils deviennent plus agressifs lors des élections en en démantelant les faux comptes et la désinformation préjudiciable. Mais ces efforts peuvent s'apparenter à un jeu de whack-a-mole.

Une approche préventive différente consisterait à ajouter friction. En d'autres termes, pour ralentir le processus de diffusion de l'information. Les comportements à haute fréquence tels que le goût et le partage automatisés pourraient être inhibés par des tests ou des frais CAPTCHA. Cela réduirait non seulement les possibilités de manipulation, mais avec moins d'informations, les gens seraient en mesure de prêter plus d'attention à ce qu'ils voient. Cela laisserait moins de place au biais d'engagement pour affecter les décisions des gens.

Cela aiderait également si les sociétés de médias sociaux ajustaient leurs algorithmes pour se fier moins à l'engagement pour déterminer le contenu qu'elles vous servent.

Article de Filippo MenczerLuddy Distinguished Professor of Informatics and Computer Science, Indiana University

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article d'origine.




Source link