Fermer

juillet 7, 2022

Pourquoi la « reconnaissance des expressions faciales » de l’IA est une arnaque totale

Pourquoi la « reconnaissance des expressions faciales » de l’IA est une arnaque totale


Une équipe de chercheurs de l’Université normale d’ingénierie de Jilin en Chine a récemment publié un document indiquant qu’ils avaient construit un IA modèle capable de reconnaître les expressions faciales humaines.

Je vais vous faire gagner du temps ici : ils ne l’ont certainement pas fait. Une telle chose n’est actuellement pas possible.

La capacité de reconnaître avec précision les émotions humaines est ce que nous, chez Neural, appellerions un exploit «au niveau de la divinité». Les seules personnes qui savent vraiment ce que vous ressentez à un moment donné sont vous et tous les êtres omnipotents potentiels.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

Mais vous n’avez pas à me croire sur parole. Vous pouvez arriver à la même conclusion en utilisant vos propres capacités de pensée critique.

À l’avant: La recherche est fondamentalement erronée car elle confond l’expression faciale avec l’émotion humaine. Vous pouvez falsifier cette prémisse en réalisant une expérience simple : évaluez votre état émotionnel actuel puis forcez-vous à faire une expression faciale qui se présente en diamétralement opposée à celle-ci.

Si vous vous sentez heureux et que vous êtes capable d' »agir » triste, vous avez personnellement démystifié toute la prémisse de la recherche. Mais, juste pour le plaisir, continuons.

Arrière plan: Ne laissez pas le battage médiatique vous tromper. Les chercheurs n’entraînent pas l’IA à reconnaître les expressions. Ils entraînent l’IA à battre une référence. Il n’y a absolument aucune différence conceptuelle entre ce système et celui qui essaie de déterminer si un objet est un hot-dog ou pas.

Cela signifie que les chercheurs ont construit une machine qui tente de deviner Étiquettes. Ils montrent essentiellement leur modèle AI 50 000 images, une à la fois, et le forcent à choisir parmi un ensemble d’étiquettes.

L’IA pourrait, par exemple, avoir le choix entre six émotions différentes – heureuse, triste, en colère, effrayée, surprise, etc. – et aucune option pour dire « Je ne sais pas ».

C’est pourquoi les développeurs d’IA peuvent exécuter des centaines de milliers, voire des millions d' »itérations d’entraînement » pour entraîner leur IA. Les machines ne comprennent pas les choses en utilisant la logique, elles essaient simplement toutes les combinaisons possibles d’étiquettes et s’adaptent aux commentaires.

C’est un peu plus complexe que cela, mais la grande idée importante ici est que l’IA ne se soucie pas ou ne comprend pas les données qu’elle analyse ou les étiquettes qu’elle applique.

Vous pourriez lui montrer des images de chats et le forcer à « prédire » si chaque image était « Spiderman déguisé » ou « la couleur jaune exprimée dans la poésie visuelle » et il appliquerait une étiquette ou l’autre à chaque image.

Les développeurs de l’IA ajustaient les paramètres et exécutaient à nouveau les modèles jusqu’à ce qu’ils soient en mesure de déterminer quels chats étaient lesquels avec suffisamment de précision pour passer une référence.

Et ensuite, vous pouvez reconvertir les données en images de visages humains, conserver les stupides étiquettes «Spiderman» et «couleur jaune», et les recycler pour prédire quelles étiquettes correspondent aux visages.

Le fait est que l’IA ne comprend pas ces concepts. Ces modèles de prédiction ne sont essentiellement que des machines qui se tiennent devant des boutons qui les poussent au hasard jusqu’à ce que quelqu’un leur dise qu’ils ont bien compris.

Ce qui est spécial à leur sujet, c’est qu’ils peuvent appuyer sur des dizaines de milliers de boutons en quelques secondes et qu’ils n’oublient jamais dans quel ordre ils les ont poussés.

Le problème: Tout cela semble utile car, lorsqu’il s’agit de résultats qui n’affectent pas les humains, les modèles de prédiction sont géniaux.

Lorsque les modèles d’IA tentent de prédire quelque chose d’objectif, par exemple si un animal particulier est un chat ou un chien, ils aident la cognition humaine.

Vous et moi n’avons pas le temps de parcourir chaque image sur Internet lorsque nous essayons de trouver des photos d’un chat. Mais les algorithmes de recherche de Google le font.

C’est pourquoi vous pouvez rechercher des « chats mignons » sur Google et récupérer des milliers de photos pertinentes.

Mais l’IA ne peut pas déterminer si une étiquette est réellement appropriée. Si vous étiquetez un cercle avec le mot « carré » et entraînez une IA sur cette étiquette, elle supposera simplement que tout ce qui ressemble à un cercle est un carré. Un humain de cinq ans vous dirait que vous avez mal étiqueté le cercle.

Prise neuronale : C’est une arnaque totale. Les chercheurs présentent leur travail comme utile pour « des domaines comme les interactions homme-ordinateur, la conduite sécuritaire… et la médecine », mais il n’y a absolument aucune preuve pour étayer leur affirmation.

La vérité est que les «interactions informatiques» n’ont rien à voir avec l’émotion humaine, les algorithmes de conduite sécuritaire sont plus efficaces lorsqu’ils se concentrent sur l’attention plutôt que sur l’émotivité, et il n’y a pas de place en médecine pour des évaluations faibles et basées sur des prédictions concernant des conditions individuelles.

L’essentiel est simple: Vous ne pouvez pas apprendre à une IA à identifier la sexualité humaine, la politique, la religion, l’émotion ou toute autre qualité non intrinsèque à partir d’une photo de son visage. Ce que vous peut faire est d’effectuer une prestidigitation avec un algorithme de prédiction dans l’espoir d’exploiter l’ignorance humaine.




Source link