Fermer

juin 19, 2020

Le comité du renseignement de la maison grille Facebook sur des algorithmes


Facebook n'a pas eu beaucoup de réponses.

Développez votre entreprise, Pas votre boîte de réception

Restez informé et rejoignez notre newsletter quotidienne maintenant!


4 min de lecture


Cette histoire est apparue à l'origine sur Engadget

Le House Select Committee on Intelligence a rencontré jeudi certains des plus hauts responsables politiques de Facebook, Twitter et YouTube. Le sujet de l'audience virtuelle était la sécurité électorale et l'ingérence étrangère avant les élections de 2020. Mais bien que les législateurs aient pressé tous les responsables de l'entreprise présents dans leurs efforts pour lutter contre l'ingérence électorale, Facebook, de façon prévisible, a attiré une grande partie de l'examen.

L'un des problèmes les plus controversés n'était pas les efforts de Facebook pour lutter contre les menaces à la sécurité, mais ses algorithmes. À la suite d'un récent Wall Street Journal rapport selon lequel les dirigeants de Facebook ont résisté aux efforts pour rendre son réseau social moins diviseur malgré des recherches internes qui ont trouvé que ses algorithmes créent plus de polarisation et un débat renouvelé autour de la modération du contenu, les membres du Congrès ont poussé Facebook à expliquer exactement comment ses algorithmes fonctionnent. Le responsable de la politique de cybersécurité de l'entreprise, Nathaniel Gleicher, n'a pas eu beaucoup de réponses.

Related: Ads Facebook: The Complete Guide to Getting Started

"Je suis préoccupé à cause d'un problème que j'ai soulevé en 2017, et à plusieurs reprises depuis," Rep Adam Schiff a déclaré dans ses remarques liminaires. «Je m'inquiète de savoir si les plateformes de médias sociaux comme YouTube, Facebook, Instagram et autres, de manière délibérée ou non, optimisent pour un contenu extrême. Ces technologies sont conçues pour engager les utilisateurs et les faire revenir, ce qui nous éloigne et isole les Américains dans des silos d'informations. »

Plus tard, le représentant Jim Himes a demandé à Gleicher ce que Facebook faisait pour lutter contre la polarisation compte tenu des implications potentielles pour la sécurité, notant que plus Facebook était polarisé, plus il était facile pour les autres pays d'exploiter ces divisions pour leur propre gain.

"Si chaque foyer américain est plein de gaz toxiques et explosifs, comme je pense que c'est le cas aujourd'hui, il suffit d'un match de la Russie ou de l'Iran ou de la Corée du Nord ou de la Chine pour déclencher une conflagration", a déclaré Himes. " J'ai été très troublé par la réticence apparente de Facebook à accepter de manière très publique et spécifique l'idée que son algorithme – qui est vraiment ce qui m'inquiète, en termes de sécurité de ce pays – que son algorithme favorise la polarisation, division et colère. "

Connexes: Comment espionner vos concurrents en utilisant la bibliothèque de publicités Facebook

Gleicher a répondu que Facebook a trouvé ses utilisateurs ne le font pas voulez voir le clic appâts et autres types de poteaux «source de division». "Ils ne veulent pas voir les appâts de clic, ils ne veulent pas voir le type de contenu qui divise que vous décrivez." Gleicher a déclaré, soulignant les efforts de Facebook pour éliminer les appâts de clic et «recentrer» son ​​fil d'actualités autour des publications d'amis et de familles plutôt que des pages.

L'explication ne s'est pas bien passée avec Himes. "Vous ne résonnez tout simplement pas avec moi", a-t-il dit.

Gleicher a ensuite tenté de clarifier. "Certes, les gens sont attirés par les appâts cliquables, ils sont attirés par le contenu explosif", a-t-il déclaré. «Les gens ne veulent pas d'une plate-forme ou d'une expérience qui soit juste un appât de clic. Ils cliqueront dessus s'ils le voient, mais ils ne veulent pas lui donner la priorité. Ils ne veulent pas que leur temps soit consacré à cela. »

Schiff et le représentant Eric Swalwell ont également pressé Facebook de mieux expliquer comment ses algorithmes hiérarchisent et classent les différents types de contenu, et l'impact de ces décisions sur les utilisateurs. Gleicher a convenu que «la transparence est importante», mais n'a pas fourni de détails.

Connexes: Facebook permet aux utilisateurs américains de désactiver les publicités politiques

«Les algorithmes que nous sommes parler, le processus de prise de décision dont nous parlons, est incroyablement complexe », a déclaré Gleicher. «Il est extrêmement important de montrer ces informations de manière consommable et significative, car il est très facile de tirer des conclusions.»

Le regain d'intérêt pour les algorithmes de Facebook survient alors que l'entreprise est confrontée à un examen plus approfondi de ses politiques de modération de contenu. Un jour plus tôt, le ministère de la Justice avait proposé une série de changements qui réduiraient les protections juridiques accordées à Facebook et à d'autres plateformes en vertu de l'article 230 de la Communications Decency Act.




Source link