Fermer

janvier 23, 2022

TinyML apporte des modèles d'apprentissage en profondeur aux microcontrôleurs


Cet article fait partie de nos revues d'articles de recherche sur l'IAune série d'articles qui explorent les dernières découvertes en matière d'intelligence artificielle.

Les modèles d'apprentissage en profondeur doivent leur succès initial aux gros serveurs avec de grandes quantités. de mémoire et des grappes de GPU. Les promesses de l'apprentissage en profondeur ont donné naissance à toute une industrie de services de cloud computing pour les réseaux de neurones profonds. Par conséquent, les très grands réseaux de neurones fonctionnant sur des ressources cloud pratiquement illimitées sont devenus très populaires, en particulier parmi les entreprises technologiques riches qui peuvent payer la facture.

Mais en même temps, ces dernières années ont également vu une tendance inverse, un effort concerté pour créer des modèles d'apprentissage automatique pour les appareils de pointe . Appelés TinyML ou TinyML, ces modèles conviennent aux appareils qui ont une mémoire et une puissance de traitement limitées, et dans lesquels la connectivité Internet est soit absente, soit limitée.

Le dernier de ces efforts, un travail conjoint d'IBM et le Massachusetts Institute of Technology (MIT), s'attaque au goulot d'étranglement de la mémoire de pointe des réseaux de neurones convolutifs (CNN), une architecture d'apprentissage en profondeur particulièrement critique pour les applications de vision par ordinateur. Détaillé dans un article présenté à la conférence NeurIPS 2021, le modèle s'appelle MCUNetV2 et peut exécuter des CNN sur des microcontrôleurs à faible mémoire et faible consommation.

Pourquoi TinyML ?

 

edge-ai-hardware-ic" width="796" height="531" srcset="htt ps://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2022/01/edge-ai-hardware-ic-796x531.jpeg 796w, https://cdn0.tnwcdn.com/wp -content/blogs.dir/1/files/2022/01/edge-ai-hardware-ic-280x187.jpeg 280w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/ 2022/01/edge-ai-hardware-ic-203x135.jpeg 203w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2022/01/edge-ai-hardware-ic -405x270.jpeg 405w, https://cdn0.tnwcdn.com/wp-content/blogs.dir/1/files/2022/01/edge-ai-hardware-ic.jpeg 1392w"/></noscript data-recalc-dims=

Alors que le deep learning dans le cloud a connu un énorme succès, il n'est pas applicable dans toutes les situations. De nombreuses applications nécessitent une inférence sur l'appareil. Par exemple, dans certains contextes, tels que les missions de sauvetage par drone, la connectivité Internet n'est pas garantie. Dans d'autres domaines, tels que les soins de santé, les exigences et réglementations en matière de confidentialité rendent très difficile l'envoi de données vers le cloud pour traitement. Et le retard causé par l'aller-retour vers le cloud est prohibitif pour les applications qui nécessitent une inférence ML en temps réel.

Toutes ces nécessités ont rendu le ML sur l'appareil à la fois scientifiquement et commercialement attrayant. Votre iPhone exécute maintenant la reconnaissance faciale et la reconnaissance vocale sur l'appareil. Votre téléphone Android peut exécuter la traduction sur l'appareil. Votre Apple Watch utilise l'apprentissage automatique pour détecter les mouvements et les schémas ECG.

Ces modèles ML sur l'appareil ont été en partie rendus possibles par les progrès des techniques utilisées pour rendre les réseaux de neurones compacts et plus efficaces en termes de calcul et de mémoire. Mais ils ont également été rendus possibles grâce aux progrès du matériel. Nos smartphones et appareils portables offrent désormais plus de puissance de calcul qu'un serveur il y a 30 ans. Certains ont même des coprocesseurs spécialisés pour l'inférence ML. dans nos poches et sur nos poignets.

Les microcontrôleurs sont bon marché, avec des prix de vente moyens atteignant moins de 0,50 $, et ils sont partout, intégrés dans les appareils grand public et industriels. En même temps, ils ne disposent pas des ressources trouvées dans les appareils informatiques génériques. La plupart d'entre eux n'ont pas de système d'exploitation. Ils ont un petit processeur, sont limités à quelques centaines de kilo-octets de mémoire basse consommation (SRAM) et à quelques mégaoctets de stockage, et ne disposent d'aucun équipement réseau. Ils n'ont généralement pas de source d'électricité secteur et doivent fonctionner avec des piles et des piles pendant des années. Par conséquent, l'installation de modèles d'apprentissage en profondeur sur les microcontrôleurs peut ouvrir la voie à de nombreuses applications.

Goulets d'étranglement de la mémoire dans les réseaux de neurones convolutifs

 

Architecture du réseau de neurones convolutifs (CNN)