Fermer

septembre 12, 2018

MIT a enseigné à un réseau de neurones comment montrer son travail



Le groupe Lincoln Intelligence and Decision Technologies du MIT a dévoilé hier un réseau neuronal capable d’expliquer son raisonnement. C'est la dernière attaque sur le problème de la boîte noire et un nouvel outil pour combattre les IA biaisées.

Surnommé le réseau TbD, le MIT est un réseau neuronal conçu pour répondre à des questions complexes sur les images. Le réseau analyse une requête en la décomposant en sous-tâches gérées par des modules individuels.

Si vous lui avez demandé de déterminer la couleur du «grand carré» dans une image montrant plusieurs formes différentes de taille et de couleur différentes, par exemple , il commencerait par avoir un module capable de rechercher des «gros» objets qui traitent les informations et ensuite afficher une carte thermique indiquant quels objets sont importants. Ensuite, il numériserait l'image avec un module qui détermine lesquels des grands objets étaient des carrés. Et enfin, il utiliserait ensuite un module pour déterminer la couleur du grand carré et sortir la réponse avec une représentation visuelle du processus par lequel elle est arrivée à cette conclusion.

D'après un communiqué de presse du MIT :

Les chercheurs ont évalué le modèle en utilisant un ensemble de données visuelles comprenant 70 000 images de formation et 700 000 questions, ainsi que des ensembles de test et de validation de 15 000 images et 150 000 questions. Le modèle initial a atteint une précision de 98,7% sur le jeu de données, ce qui, selon les chercheurs, surpasse de loin les autres approches basées sur les réseaux de modules neuronaux.

Une précision de 98,7%, reconnaissance d'image AI. Mais, ce qui est encore plus surprenant, c’est que les chercheurs ont pu utiliser les commentaires des explications du réseau pour ajuster le système et obtenir une précision quasi parfaite de 99,1%.

Ce n’est pas la première tentative » vu à prendre AI hors de la boîte noire. Plus tôt cette année, TNW a rapporté sur un réseau similaire par des chercheurs de Facebook. Mais l’incroyable précision du réseau du MIT prouve que les performances ne doivent pas forcément être rejetées si vous voulez de la transparence.

Les experts estiment que l’IA biaisée est l’une des principales préoccupations technologiques de notre époque. Des recherches récentes indiquent que les systèmes d’apprentissage en profondeur peuvent développer eux-mêmes des préjugés préjudiciables. Et cela ne veut rien dire des dangers du biais humain incorporé dans le code de l'apprentissage automatique.

Le fait est qu'une machine susceptible de nuire à la vie des humains, telle que Il ne faut pas se fier aux voitures de conduite ou aux réseaux neuronaux qui déterminent la peine pour les contrevenants reconnus coupables, à moins de pouvoir nous dire comment elle parvient à ses conclusions.

La recherche que nous avons vue est la référence en matière de création d’IA que nous pouvons comprendre et en qui nous avons confiance.




Source link