Fermer

juin 6, 2021

La ruée vers la commercialisation de l'IA crée des risques de sécurité majeurs


Lors de la Conférence internationale sur les représentations d'apprentissage (ICLR) de cette année, une équipe de chercheurs de l'Université du Maryland a présenté une technique d'attaque destinée à ralentir les modèles d'apprentissage en profondeur qui ont été optimisés pour des opérations rapides et sensibles. L'attaque, bien nommée DeepSloth, cible les « réseaux de neurones profonds adaptatifs », une gamme d'architectures d'apprentissage en profondeur qui réduisent les calculs pour accélérer le traitement.

Les dernières années ont vu un intérêt croissant pour la sécurité de l'apprentissage automatique et de l'apprentissage profond. learninget il existe de nombreux articles et techniques sur le piratage et la défense des réseaux de neurones. Mais une chose rendait DeepSloth particulièrement intéressant : les chercheurs de l'Université du Maryland présentaient une vulnérabilité dans une technique qu'ils avaient eux-mêmes développée deux ans plus tôt.

À certains égards, l'histoire de DeepSloth illustre les défis auxquels la communauté de l'apprentissage automatique est confrontée. . D'une part, de nombreux chercheurs et développeurs se bousculent pour rendre le deep learning accessible à différentes applications. D'un autre côté, leurs innovations créent de nouveaux défis qui leur sont propres. Et ils doivent rechercher activement et relever ces défis avant qu'ils ne causent des dommages irréparables.

Réseaux profonds peu profonds

L'un des plus grands obstacles à l'apprentissage en profondeur des coûts de calcul de la formation et de l'exploitation des réseaux de neurones profonds. De nombreux modèles d'apprentissage en profondeur nécessitent d'énormes quantités de mémoire et de puissance de traitement, et ne peuvent donc fonctionner que sur des serveurs dotés de ressources abondantes. Cela les rend inutilisables pour les applications qui nécessitent que tous les calculs et données restent sur les appareils périphériques ou nécessitent une inférence en temps réel et ne peuvent pas se permettre le retard causé par l'envoi de leurs données à un serveur cloud.

Au cours des dernières années, la machine les chercheurs en apprentissage ont développé plusieurs techniques pour rendre les réseaux de neurones moins coûteux. Une gamme de techniques d'optimisation appelée « architecture à sorties multiples » arrête les calculs lorsqu'un réseau de neurones atteint une précision acceptable. Les expériences montrent que pour de nombreuses entrées, vous n'avez pas besoin de parcourir toutes les couches du réseau de neurones pour prendre une décision définitive. Les réseaux de neurones à sorties multiples économisent les ressources de calcul et contournent les calculs des couches restantes lorsqu'ils ont confiance en leurs résultats.