Fermer

mars 12, 2021

Le patron de Facebook AI, Yann LeCun, fait une diatribe sur Twitter et blâme Talk Radio pour son contenu haineux


Yann LeCun, le gourou de l’IA de renommée mondiale de Facebook, a eu quelques problèmes avec un article écrit sur son entreprise hier. Alors il a fait ce que n'importe lequel d'entre nous ferait, il est allé sur les réseaux sociaux pour faire part de ses griefs.

Seulement, il n'a pas mené le combat sur Facebook comme on pouvait s'y attendre. Au lieu de cela, sur une période de plusieurs heures, il s'est engagé dans un va-et-vient avec de nombreuses personnes sur Twitter.

Pouvons-nous nous arrêter un instant et apprécier le fait que, un jeudi de mars au hasard, le père du programme d'IA de Facebook arrive sur Twitter pour discuter d'un article de la journaliste Karen Hao, journaliste IA pour la Technology Review du MIT?

Hao a écrit un incroyable long métrage sur le problème de modération de contenu de Facebook. L'article s'intitule «Comment Facebook est devenu accro à la diffusion de la désinformation», et le sous-titre est un doozy:

Les algorithmes d'IA de l'entreprise lui ont donné une habitude insatiable de mensonges et de discours de haine. Maintenant, l'homme qui les a construits ne peut pas résoudre le problème.

Je ne citerai ici qu'un seul paragraphe de l'article de Hao qui en capture l'essence:

Tout ce que l'entreprise fait et choisit de ne pas faire découle d'une seule motivation : Le désir incessant de croissance de Zuckerberg… [Facebook AI lead Joaquin Quiñonero Candela’s] L'expertise de l'IA a accéléré cette croissance. Comme je l'ai appris dans mes rapports, son équipe s'est mise à cibler le biais de l'IA, car la prévention de ce biais aide l'entreprise à éviter une proposition de réglementation qui pourrait, si elle était adoptée, entraver cette croissance. Le leadership de Facebook a également affaibli ou stoppé à plusieurs reprises de nombreuses initiatives visant à éliminer la désinformation sur la plate-forme, car cela compromettrait cette croissance.

Il y a beaucoup à déballer là-bas, mais l'essentiel est que Facebook est motivé par l'objectif unique de « croissance." On pourrait dire la même chose du cancer.

LeCun, apparemment, n’a pas aimé cet article. Il a sauté sur l'application que Jack a créée et a partagé ses pensées, y compris ce qui semble être des attaques personnelles mettant en doute l'intégrité journalistique de Hao:

Son ombrage d'hier étendu à blâmer la radio et le journalisme pour les malheurs de son entreprise:

Vraiment Yann? La polarisation accrue via la désinformation est-elle uniquement américaine? Avez-vous rencontré mon ami «la raison pour laquelle chaque guerre a jamais été menée dans l'histoire de tous les temps?»

Je m'éloigne du sujet.

Ce ne serait pas la première fois qu'il est redirigé vers Twitter argumenter en défense de son entreprise, mais il se passait plus d'hier qu'il n'y paraît. La tirade de LeCun a commencé par un tweet annonçant une nouvelle recherche sur l'équité de l'équipe d'intelligence artificielle de Facebook (FAIR).

Selon Hao, Facebook a coordonné la publication de l'article pour coïncider avec l'article de Tech Review: [19659003] Les gens ont demandé: FB a-t-il publié ceci en réponse à votre histoire? Non, permettez-moi de clarifier. Ils voulaient que ce papier soit dans mon histoire et m'ont donné une première ébauche. Puis, en prévision de sa présence dans mon histoire, ils ont chronométré sa publication avec ma pièce, espérant que les deux se compléteraient. https://t.co/pST8LYsTmG

– Karen Hao (@_KarenHao) 11 mars 2021

Sur la base des preuves, il semble que Facebook ait été absolument consterné par les reportages de Hao. Il semble que le réseau social s'attendait à une information sur les progrès réalisés dans le renforcement de ses algorithmes, la détection des biais et la lutte contre le discours de haine. Au lieu de cela, Hao a mis à nu le problème essentiel de Facebook: c'est une toile d'araignée.

Ce sont mes mots, pas ceux de Hao. Ce qu'ils ont écrit était:

Vers la fin de notre entretien d'une heure… [Quiñonero] a commencé à souligner que l'IA était souvent injustement qualifiée de «coupable». Que Facebook utilise l'IA ou non, a-t-il dit, les gens cracheraient toujours des mensonges et des discours de haine, et ce contenu se répandrait toujours sur la plate-forme.

Si je devais reformuler cela pour avoir un impact, je pourrais dire quelque chose comme si notre entreprise verse de l'essence sur le terrain et offre à tout le monde un livre d'allumettes, nous allons toujours avoir des incendies de forêt. Mais, encore une fois, ce sont mes mots.

Et quand je dis que Facebook est une toile d'araignée, ce que je veux dire, c'est: les toiles d'araignée sont bonnes, jusqu'à ce qu'elles deviennent trop importantes. Par exemple, si vous voyez une toile d'araignée dans le coin de votre grange, c'est génial! Cela signifie que vous avez un petit guerrier arachnide qui vous aide à éliminer les insectes les plus méchants. Mais si vous voyez une toile d'araignée couvrant toute votre ville, comme quelque chose qui sort du «Royaume des araignées», c'est vraiment une mauvaise chose.

William Shatner était dans ce film!

Et c'est Il est évident que LeCun le sait parce que tout son discours sur Twitter hier n'était qu'un aveu géant que Facebook échappe au contrôle de quiconque. Voici quelques bribes de ses tweets sur le sujet:

… Quand il est devenu clair que de telles choses se produisaient, FB a pris rapidement des correctifs [measures]… ..

certainement pas assez rapidement pour éviter que de mauvaises choses ne se produisent en entre-temps (d'où ces rapports des Nations Unies).

Mais prendre ces mesures correctives n'est ni instantané, ni facile, ni bon marché….

Lorsque le gouvernement du Myanmar a commencé à diffuser des informations haineuses contre les Rohingyas, FB a supprimé leurs comptes de marionnettes.

Mais le volume était tel que des systèmes d'IA devaient être développés pour automatiser autant que possible.

FB a donc développé le meilleur système de traduction birman-anglais au monde, de sorte que Eng – un modérateur parlant pourrait aider…

Simultanément, il a développé des détecteurs de discours haineux et violents pour les Birmans. Mais les données étaient rares.

Ainsi, au cours des 2 dernières années, FB a développé des systèmes multilingues capables de détecter les discours de haine dans n'importe quelle langue et ne nécessitant pas beaucoup de données de formation.

Tout cela demande de l'expertise, du temps, de l'argent et dans ce cas, les dernières avancées de l'IA.

Intéressant. L’affirmation fondamentale de LeCun semble être que mettre fin à la désinformation est vraiment difficile . Eh bien, c’est vrai.

Comme mon collègue Matthew Beedham l'a souligné dans le Shift newsletter d'aujourd'hui, la construction d'une automobile de production alimentée par un Le réacteur nucléaire dans son coffre est vraiment difficile.

Mais, comme les scientifiques qui travaillent sur exactement cela pour la société Ford l'ont réalisé il y a des décennies, la technologie nucléaire n'est tout simplement pas assez avancée pour la rendre suffisamment sûre pour alimenter des véhicules de production grand public . Le nucléaire est idéal pour les porte-avions et les sous-marins, mais pas tant pour le break familial.

Je dirais que l'impact de Facebook sur l'humanité est presque certainement loin, bien plus préjudiciable et de grande envergure qu'une maigre petite fusion nucléaire dans le coffre d'une Ford Mustang. Après tout, 31 personnes seulement sont mortes des suites directes de la fusion nucléaire de Tchernobyl et les experts estiment qu'un maximum d'environ 4 000 personnes ont été indirectement touchées (du point de vue de la santé, en tout cas).

Facebook compte 2,45 milliards d'utilisateurs. Et chaque fois que sa plate-forme crée ou aggrave un problème pour l'un de ces utilisateurs, sa réponse est une version ou une autre de «nous allons l'examiner». Le seul endroit où ce type de réponse réactionnaire au déséquilibre technologique sert réellement le public est dans un jeu Whac-A-Mole.

Si Facebook était une centrale nucléaire essayant de réparer une fuite qui envoyait des déchets nucléaires dans notre eau potable à chaque fois quelqu'un a mal utilisé le réseau électrique: nous l'avons fermé jusqu'à ce qu'il colmate les fuites.

Mais nous ne fermons pas Facebook parce que ce n'est pas vraiment une entreprise. C’est une machine de relations publiques d’un billion de dollars pour une entité autonome. C’est un pays . Et nous devons soit le sanctionner, soit le traiter comme une force hostile jusqu'à ce qu'il fasse quelque chose pour empêcher les abus de sa plate-forme au lieu de ne réagir que lorsque la merde frappe le ventilateur.

Et, si nous ne pouvons pas empêcher les déchets nucléaires d'entrer. de notre eau potable, ou de construire une voiture sûre avec un réacteur nucléaire dans son coffre, peut-être devrions-nous simplement fermer les usines ou saborder les plans jusqu'à ce que nous le puissions. Cela a bien fonctionné pour Ford.

Peut-être, juste peut-être, la raison pour laquelle des journalistes comme Hao et moi-même, et des politiciens du monde entier ne peuvent pas offrir de solutions aux problèmes de Facebook, c'est parce qu'il n'y en a pas.

Il ne suffit peut-être pas d'embaucher les chercheurs en IA les plus intelligents de la planète et de les entourer de la plus grande machine de relations publiques du monde pour surmonter le problème des humains qui s'empoisonnent pour le plaisir et le profit sur un réseau social géant non réglementé.

Mon chapeau est à Karen Hao pour ces excellents reportages et au personnel de Technology Review pour avoir dit la vérité face au pouvoir. [19659055] Publié le 12 mars 2021 – 19:37 UTC




Source link