Fermer

mai 5, 2020

Les scientifiques ont trouvé un moyen de brancher les portes dérobées contradictoires dans les modèles d'apprentissage en profondeur


Imaginez un complexe de haute sécurité protégé par un système de reconnaissance faciale alimenté par l'apprentissage en profondeur. L'algorithme d'intelligence artificielle a été réglé pour déverrouiller les portes uniquement pour le personnel autorisé, une alternative pratique pour chercher vos clés à chaque porte.

Un étranger se présente, enfile une étrange paire de lunettes, et tout d'un coup, le Le système de reconnaissance faciale le prend pour le PDG de l'entreprise et lui ouvre toutes les portes. En installant une porte dérobée dans l'algorithme d'apprentissage en profondeur l'acteur malveillant a ironiquement accédé au bâtiment par la porte d'entrée.

Ce n'est pas une page d'un roman de science-fiction. Bien qu'hypothétique, c'est quelque chose qui peut arriver avec la technologie d'aujourd'hui. Des exemples contradictoires, des bits de données spécialement conçus peuvent tromper les réseaux de neurones profonds en faisant des erreurs absurdes, que ce soit une caméra reconnaissant un visage ou une voiture autonome décidant si elle a atteint un arrêt