Une mise à l’échelle britannique a dévoilé cette semaine une approche inédite de la vérification d’identité : demander aux utilisateurs de tourner la tête.
Onfido, une spin-out de l’Université d’Oxford, a lancé le logiciel dans un contexte de fraude d’identité croissante. Pressions économiques croissantes, numérisation croissante et bouleversement alimenté par la pandémie a récemment conduit les politiciens à avertir que une « épidémie de fraude » balaie le pays d’origine d’Onfido, le Royaume-Uni.
Des développements similaires ont été observés dans le monde entier. Aux États-Unis, par exemple, environ 49 millions de consommateurs ont été victimes d’usurpation d’identité en 2020 — leur coûtant au total environ 56 milliards de dollars.
Ces tendances ont déclenché un boom du marché de la vérification d’identité. Des fraudeurs de plus en plus sophistiqués obligent également les fournisseurs à développer des méthodes de détection plus avancées.
Onfido a donné à TNW une démo exclusive de leur nouvelle entrée sur le terrain : une expérience de capture à tour de rôle baptisée Motion.
L’adoption de l’intégration biométrique a été freinée par deux problèmes clés. Les méthodes de détection « actives », qui demandent aux utilisateurs d’effectuer une séquence de gestes devant une caméra, sont connues pour des taux d’abandon élevés.
Les approches « passives », quant à elles, suppriment cette friction car elles ne nécessitent pas d’actions spécifiques de l’utilisateur, mais cela crée souvent une incertitude quant au processus. Un peu de friction peut rassurer les clients, mais trop les effraie.
Motion tente de résoudre ces deux problèmes. Giulia Di Nola, chef de produit Onfido, a déclaré à TNW que la société avait testé plus de 50 prototypes avant de décider que la capture de tête offrait le meilleur équilibre.
« Nous avons expérimenté des mouvements d’appareils, différents mouvements de motifs, des commentaires d’utilisateurs finaux et travaillé avec notre équipe de recherche », a-t-elle déclaré. « C’était le sweet spot que nous avons trouvé facile à utiliser, suffisamment sécurisé et nous donnant tous les signaux dont nous avions besoin. »
Onfido affirme que les faux taux de rejet et d’acceptation du système sont inférieurs à 0,1 %. La vitesse de vérification, quant à elle, est de 10 secondes ou moins pour 95 % des utilisateurs. C’est rapide pour l’intégration des clients, mais assez lent pour une utilisation fréquente, ce qui peut expliquer pourquoi Onfido n’utilise pas encore le service pour une authentification régulière.
Dans notre démo, le processus semblait rapide et transparent. Après avoir partagé une pièce d’identité avec photo, l’utilisateur est invité à fournir sa biométrie faciale via un smartphone. On leur demande d’abord de positionner leur visage dans le cadre, puis de tourner légèrement la tête vers la droite et la gauche – l’ordre n’a pas d’importance.
Au fur et à mesure qu’ils se déplacent, le système fournit une rétroaction pour assurer un alignement correct. Quelques instants plus tard, l’application rend sa décision : clair.
Sous la capuche
Pendant que l’utilisateur tourne, IA compare le visage sur l’appareil photo avec celui sur l’ID.
La vidéo est séquencée en plusieurs images, qui sont ensuite séparées en différents sous-composants. Ensuite, une suite de l’apprentissage en profondeur networks analyse à la fois les parties individuelles et la vidéo dans son intégralité.
Les réseaux détectent des motifs dans l’image. En reconnaissance faciale, ces motifs vont de la forme d’un nez aux couleurs des yeux. Dans le cas de l’anti-usurpation d’identité, les motifs peuvent être des reflets d’une vidéo enregistrée, des lunettes sur un appareil numérique ou les bords tranchants d’un masque.
Chaque réseau construit une représentation de l’image d’entrée. Toutes les informations sont ensuite agrégées en un score unique.
« C’est ce que nos clients voient : si nous pensons ou non que la personne est authentique ou une parodie », a déclaré Romain Sabathe, responsable des sciences appliquées chez Onfido pour l’apprentissage automatique.
La confiance d’Onfido en Motion découle, en partie, d’une division inhabituelle de l’entreprise : une unité de création de fraude.
Dans un lieu qui ressemble à un studio photo, l’équipe a testé divers masques, résolutions d’éclairage, vidéos, images manipulées, taux de rafraîchissement et angles. Au total, ils ont créé plus de 1 000 000 exemples de fraude différents, qui ont été utilisés pour former les algorithme.
Chaque cas a été testé sur le système. S’il réussissait les vérifications, l’équipe a sondé Motion plus avant avec des types de fraude similaires, tels que différentes versions d’un masque. Cela a généré une boucle de rétroaction pour trouver des problèmes, les résoudre et améliorer le mécanisme.
Motion a également dû travailler sur un large éventail d’utilisateurs. Malgré les stéréotypes sur les victimes, la fraude affecte la plupart des données démographiques assez uniformément. Pour s’assurer que le système les sert, Onfido a déployé divers ensembles de données de formation et des tests approfondis. La société affirme que cela a réduit les biais algorithmiques et les faux rejets dans toutes les régions géographiques.
Fraude au complot
Sabathe a démontré comment Motion fonctionne lorsqu’un fraudeur utilise un masque.
Lorsque le système capture son visage, il extrait des informations de l’image. Il représente ensuite les résultats sous forme de coordonnées sur un graphique 3D.
Le graphique est composé de groupes de couleurs, qui correspondent aux caractéristiques des utilisateurs authentiques et aux types de fraude. Lorsque Sabathe met le masque, le système trace l’image sur le cluster de fraude. Dès qu’il l’enlève, le point entre dans le véritable cluster.
« Nous pouvons commencer à comprendre comment le réseau interprète les différents types d’usurpations et les différents utilisateurs authentiques qu’il voit sur la base de cette représentation », a-t-il déclaré.
La technique de rotation de la tête d’Onfido ressemble à celle révélé le mois dernier par Metaphysic.aiune startup derrière le viral Les deepfakes de Tom Cruise. Les chercheurs de l’entreprise ont découvert qu’un coup d’œil de côté pouvait exposer les appelants vidéo deepfake.
Di Nola note que de telles attaques de médias synthétiques restent rares – pour l’instant.
« Ce n’est certainement pas le type d’attaque le plus courant que nous voyons en production », a-t-elle déclaré. « Mais c’est un domaine dont nous sommes conscients et dans lequel nous investissons. »
Dans le domaine de l’usurpation d’identité, les attaques et les défenses continueront d’évoluer rapidement.
Source link