Fermer

juin 5, 2018

MIT a fait une AI psychopathique basée sur un thriller Hitchcock


Une équipe de scientifiques fous du médiocre Media Lab du MIT a créé Norman Bates, un meurtrier épris de mère d'Alfred Hitchcock. Norman est un réseau de neurones délibérément biaisé conçu pour légender les images. Nous avons couvert des projets d'IA similaires ( celui-ci était hilarant, et en a un qui trompe les humains) mais les MIT n'étaient pas entraînés comme ils l'étaient. Il a été abusé, faute d'un meilleur terme.

Plutôt que de lui fournir de bonnes données saines obtenues avec la plus pure intention, les chercheurs du MIT "l'ont exposé aux coins les plus sombres de Reddit". 19659004] Nous avons formé Norman sur les légendes d'images à partir d'un subreddit infâme (le nom est expurgé en raison de son contenu graphique) qui est dédié à documenter et observer la réalité troublante de la mort.

Le résultat? Norman est assez foiré.

Crédits: MIT Media Lab

Les chercheurs l'ont nourri d'une série de tests de Rorshact images et a comparé ses réponses avec celle d'un réseau neuronal différent formé sur des données plus traditionnelles.

Credit: MIT Media Lab

La plupart des développeurs conçoivent des produits d'apprentissage automatique pour améliorer leurs vies ou rationaliser leurs activités. Mais le Media Lab du MIT a pris l'habitude chaque année de révéler des réseaux de neurones dérangeants, des collaborations homme-machine terrifiantes et d'autres créations effrayantes alimentées par l'IA. Les entrées précédentes incluent Machine à cauchemar une IA qui applique des filtres infernaux aux images, et la machine à raconter des histoires de 2017 Shelly

Source: MIT Media Lab
belle horreur.

L'offre de cette année arrive à un moment particulièrement sensible pour la technologie, où l'utilisation peu scrupuleuse des données est devenue un sujet brûlant. Le point de Norman, selon les chercheurs, est de montrer la différence que les données biaisées peuvent faire lorsque les développeurs construisent une IA.

Et à la suite du scandale des données Cambridge Analytica qui prétendument a affecté les résultats de la campagne du Brexit et des élections présidentielles américaines de 2016, il est plus évident que jamais que des données biaisées peuvent conduire à des résultats défavorables.

Norman nous rappelle que, comme ses créateurs l'ont dit , "Quand les gens disent que les algorithmes d'IA sont biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été fournies." Une autre façon de le dire: conneries, conneries.

En savoir plus sur Norman, et voir plus de ses légendes morbides, ici .

Lire la suite:

Le service de test ADN populaire signale une violation affectant 92 millions d'utilisateurs




Source link