Site icon Blog ARC Optimizer

Tout ce que vous devez savoir sur l'informatique neuromorphique


En juillet, un groupe de chercheurs en intelligence artificielle a présenté un vélo autonome qui pouvait contourner les obstacles, suivre une personne et répondre aux commandes vocales. Alors que le vélo autonome lui-même était peu utile, la technologie AI derrière lui était remarquable. Alimenter la bicyclette était une puce neuromorphique, un type spécial d'ordinateur IA.

L'informatique neuromorphique n'est pas nouvelle. En fait, il a été proposé pour la première fois dans les années 80. Mais les récents développements dans l'industrie de l'intelligence artificielle ont ravivé l'intérêt pour les ordinateurs neuromorphes.

La popularité croissante des apprentissage en profondeur et réseaux de neurones a déclenché une course au développement de matériel IA spécialisé pour les neurones. calculs de réseau. Parmi les quelques tendances qui ont émergé ces dernières années, on trouve l'informatique neuromorphique, qui s'est révélée prometteuse en raison de ses similitudes avec les réseaux de neurones biologiques et artificiels.

Lire: [ Comment les machines voient : tout ce que vous devez savoir sur la vision par ordinateur ]


Fonctionnement des réseaux de neurones profonds

Au cœur des récents progrès de l'artificiel l'intelligence sont les réseaux de neurones artificiels (ANN), un logiciel d'IA qui suit à peu près la structure du cerveau humain. Les réseaux de neurones sont composés de neurones artificiels, de minuscules unités de calcul qui remplissent des fonctions mathématiques simples.

Les neurones artificiels ne sont pas très utiles seuls. Mais lorsque vous les empilez en couches, ils peuvent effectuer des tâches remarquables, telles que la détection d'objets dans les images et la transformation de l'audio vocal en texte. Les réseaux de neurones profonds peuvent contenir des centaines de millions de neurones, répartis sur des dizaines de couches.

<img class = "jetpack-lazy-image jetpack-lazy-image – managed wp-image-5230 size-full parzy" style = "box-sizing: border-box; border: 0px; max-width: 100%; height: auto; margin: 0px 5px; width: 696px; display: inline-block;" src = "data: image / gif; base64, R0lGODlhAQABAIAAAAAAAP /// yH5BAEAAAAALAAAAAABAAEAAAIBRAA7" tailles = "(largeur max: 696px) 100vw, 696px" alt = "structure de neurone artificiel" largeur = "696" hauteur = "331" données attachment-id = "5230" data-permalink = "https://bdtechtalks.com/2019/08/05/what-is-artificial-neural-network-ann/artificial-neuron/" data-orig-file = " https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?fit=1682%2C799&ssl=1 "data-orig-size =" 1682,799 "data -comments-open = "1" data-image-meta = "{" ouverture ":" 0 "," credit ":" "," camera ":" "," caption ":" "," created_timestamp ":" 0 "," copyright ":" "," focal_length ":" 0 "," iso ":" 0 "," shutter_speed ":" 0 "," title ":" "," orientation ":" 0 "}" data-image-title = "Neurone artificiel" data-image-description = "

structure des neurones artificiels

" data-medium-file = "https://i1.wp.com/bdtechtalks.com/wp- content / uploads / 2019/08 / Artificial-Neuron.png? fit = 300% 2C143 & ssl = 1 "data-large-file =" https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019 / 08 / Artificia l-Neuron.png? fit = 696% 2C330 & ssl = 1 "data-recalc-dims =" 1 "data-lazy-charger =" 1 "data-src =" https://i1.wp.com/bdtechtalks.com /wp-content/uploads/2019/08/Artificial-Neuron.png?resize=696%2C331&ssl=1 "data-lazy =" true "data-srcset =" https://i1.wp.com/bdtechtalks.com /wp-content/uploads/2019/08/Artificial-Neuron.png?w=1682&ssl=1 1682w, https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial- Neuron.png? Resize = 300% 2C143 & ssl = 1 300w, https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?resize=768%2C365&ssl=1 768w, https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?resize=1024%2C486&ssl=1 1024w, https://i1.wp.com /bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?resize=696%2C331&ssl=1 696w, https://i1.wp.com/bdtechtalks.com/wp-content/uploads/ 2019/08 / Artificial-Neuron.png? Resize = 1068% 2C507 & ssl = 1 1068w, https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?resize = 884% 2C420 & ssl = 1 884w , https://i1.wp.com/bdtechtalks.com/wp-content/uploads/2019/08/Artificial-Neuron.png?w=1392&ssl=1 1392w "/>

La structure d'un neurone artificiel, la composante fondamentale des réseaux de neurones artificiels (source: Wikipedia)

Lors de la formation d'un algorithme d'apprentissage en profondeur, les développeurs exécutent de nombreux exemples à travers le réseau de neurones avec le résultat attendu. Le modèle de l'IA ajuste chacun des neurones artificiels en examinant de plus en plus de données. Peu à peu, il devient plus précis pour les tâches spécifiques pour lesquelles il a été conçu, telles que la détection du cancer sur des diapositives ou le signalement de transactions bancaires frauduleuses.

Les défis de l'exécution de réseaux de neurones sur du matériel traditionnel

Les ordinateurs traditionnels reposent sur une ou plusieurs centrales unités de traitement (CPU). Les processeurs sont très puissants et peuvent effectuer des opérations complexes à des vitesses élevées. Étant donné la nature distribuée des réseaux de neurones, leur exécution sur des ordinateurs classiques est lourde. Leurs processeurs doivent émuler des millions de neurones artificiels à travers des registres et des emplacements de mémoire, et calculer chacun d'eux tour à tour.

Les unités de traitement graphique (GPU), le matériel utilisé pour les jeux et les logiciels 3D, peuvent effectuer beaucoup de traitements parallèles et sont particulièrement bon pour effectuer la multiplication matricielle, le fonctionnement de base des réseaux de neurones. Les matrices de GPU se sont révélées très utiles dans les opérations de réseaux de neurones.

La popularité croissante des réseaux de neurones et de l'apprentissage en profondeur a été une aubaine pour les fabricants de GPU. La société de matériel graphique Nvidia a vu son cours de bourse augmenter de plusieurs fois au cours des dernières années.

Cependant, les GPU manquent également de la structure physique des réseaux de neurones et doivent toujours émuler les neurones dans les logiciels, bien qu'à une vitesse vertigineuse. Les différences entre les GPU et les réseaux de neurones provoquent beaucoup d'inefficacités, comme une consommation d'énergie excessive. 19659014] Contrairement aux processeurs universels, les puces neuromorphes sont structurées physiquement comme des réseaux de neurones artificiels. Chaque puce neuromorphique se compose de nombreuses petites unités de calcul qui correspondent à un neurone artificiel. Contrairement aux CPU, les unités de calcul des puces neuromorphiques ne peuvent pas effectuer beaucoup d'opérations différentes. Ils ont juste assez de puissance pour remplir la fonction mathématique d'un seul neurone.

Une autre caractéristique essentielle des puces neuromorphiques est les connexions physiques entre les neurones artificiels. Ces connexions font des puces neuromorphes plus comme des cerveaux organiques, qui se composent de neurones biologiques et de leurs connexions, appelées synapses. La création d'un réseau de neurones artificiels physiquement connectés est ce qui donne aux ordinateurs neuromorphiques leur véritable force.

La structure des ordinateurs neuromorphiques les rend beaucoup plus efficaces pour former et faire fonctionner des réseaux de neurones. Ils peuvent exécuter des modèles d'IA à une vitesse plus rapide que les CPU et GPU équivalents tout en consommant moins d'énergie. Ceci est important car la consommation d'énergie est déjà l'un des défis essentiels de l'IA .

La taille plus petite et la faible consommation d'énergie des ordinateurs neuromorphiques les rendent adaptés aux cas d'utilisation qui nécessitent de [19659028] exécuter des algorithmes d'IA au bord par opposition au nuage.

Les puces neuromorphiques sont caractérisées par le nombre de neurones qu'elles contiennent. La puce Tianjic, la puce neuromorphique utilisée dans le vélo autonome mentionné au début de cet article, contenait environ 40 000 neurones artificiels et 10 millions de synapses dans une zone de 3,8 millimètres carrés. Comparé à un GPU exécutant un nombre égal de neurones, Tianjic a effectué 1,6 à 100 fois plus rapidement et consomme 12 à 10 000 fois moins d'énergie.

Mais 40 000, c'est un nombre limité de neurones, autant que le cerveau de un poisson . Le cerveau humain contient environ 100 milliards de neurones.

AlexNet, un réseau de classification d'images populaire utilisé dans de nombreuses applications, possède plus de 62 millions de paramètres. Le modèle de langage GPT-2 d'OpenAI contient plus d'un milliard de paramètres.

Mais la puce Tianjic était plus une preuve de concept qu'un ordinateur neuromorphique destiné à des usages commerciaux. D'autres sociétés ont déjà développé des puces neuromorphes prêtes à être utilisées dans différentes applications d'intelligence artificielle.

Les puces Loihi d'Intel et les ordinateurs Pohoiki Beach en sont un exemple. Chaque puce Loihi contient 131 000 neurones et 130 millions de synapses. L'ordinateur Pohoiki, introduit en juillet, contient 8,3 millions de neurones. Le Pohoiki offre des performances 1000 fois supérieures et est 10 000 fois plus économe en énergie que les GPU équivalents.

Calcul neuromorphique et intelligence artificielle générale (AGI)

Dans un document publié en Nature les chercheurs en IA qui ont créé la puce Tianjic ont observé que leur travail pourrait nous rapprocher de l'intelligence générale artificielle (AGI). AGI est censé reproduire les capacités du cerveau humain. Les technologies d'intelligence artificielle actuelles sont étroites : elles peuvent résoudre des problèmes spécifiques et ne savent pas généraliser leurs connaissances.

Par exemple, un modèle d'IA conçu pour jouer à un jeu comme StarCraft II [19659005] sera impuissant lors de l'introduction à un autre jeu, par exemple Dota 2. Cela nécessitera un algorithme d'IA totalement différent .

Selon les concepteurs de Tianjic, leur puce d'IA a pu résoudre de multiples problèmes, y compris la détection d'objets, la reconnaissance vocale, la navigation et l'évitement d'obstacles, le tout dans un seul appareil.

Mais alors que les puces neuromorphiques pourraient nous rapprocher de l'émulation du cerveau humain, nous avons encore un long chemin à parcourir. L'intelligence générale artificielle nécessite plus que de regrouper plusieurs modèles d'IA étroits.

Les réseaux de neurones artificiels, à leur base, sont des machines statistiques, et les statistiques ne peuvent pas aider à résoudre des problèmes qui nécessitent un raisonnement, une compréhension et une résolution générale des problèmes. Les exemples incluent la compréhension du langage naturel et la navigation dans des mondes ouverts .

La création d'un matériel ANN plus efficace ne résoudra pas ces problèmes. Mais avoir des puces IA qui ressemblent beaucoup plus à notre cerveau ouvrira de nouvelles voies pour comprendre et créer de l'intelligence.

Cet article a été initialement publié par Ben Dickson sur TechTalks une publication qui examine les tendances technologiques, comment elles affectent notre façon de vivre et de faire des affaires, et les problèmes qu'elles résolvent. Mais nous discutons également du mauvais côté de la technologie, des implications plus sombres de la nouvelle technologie et de ce que nous devons rechercher. Vous pouvez lire l'article original ici .

Publié le 23 mai 2020 – 14h00 UTC
                                




Source link
Quitter la version mobile