Fermer

janvier 13, 2020

Les avantages de l'IA de reconnaissance faciale sont exagérément surestimés


La technologie de reconnaissance faciale a explosé à travers le monde. Aux États-Unis, elle continue de se perpétuer à un rythme alarmant malgré le recul bipartisan des politiciens et plusieurs interdictions géographiques. Même le gouvernement chinois a commencé à se demander s'il y avait suffisamment d'avantages à l'utilisation d'une technologie de surveillance omniprésente pour justifier la destruction totale de la vie privée du public.

La vérité est que la technologie de reconnaissance faciale ne sert que deux personnes légitimes fins: contrôle d'accès et surveillance. Et, bien trop souvent, les personnes qui développent la technologie ne sont pas celles qui déterminent en fin de compte comment elle est utilisée .

La plupart des citoyens honnêtes et respectueux des lois ne craignent pas d'être filmés en public et, pour dans une certaine mesure, aurait tendance à ne pas faire exception à l'utilisation de la technologie de reconnaissance faciale là où cela a du sens.

Par exemple, utiliser FaceID pour déverrouiller votre iPhone est logique. Il n'utilise pas une énorme base de données de photos pour déterminer l'identité d'un individu, il limite simplement l'accès à la personne qu'il a précédemment identifiée comme étant l'utilisateur autorisé.

Facial la reconnaissance dans les écoles a également un sens. Les campus doivent être fermés à toute personne non autorisée et les invités doivent être signalés à l'entrée. Cette utilisation de la reconnaissance faciale – aux points d'entrée et de sortie uniquement – repose sur le consentement préalable des gens à ce que leurs images soient ajoutées à une base de données.

Cependant, lorsque la reconnaissance faciale est utilisée dans les voies publiques telles que les aéroports, les bibliothèques, les hôpitaux, et les rues de la ville, il devient un outil de surveillance – souvent déguisé en mécanisme de contrôle d'accès ou en technique de «prévention du crime».

Dans les aéroports, par exemple, la reconnaissance faciale est souvent colportée comme moyen de remplacer les cartes d'embarquement. La rue Fancesca de CNN a souligné l'année dernière que certains avions de ligne mettaient en œuvre des systèmes de reconnaissance faciale à l'insu des clients.

Les aéroports et autres zones de trafic public mettent souvent en œuvre des systèmes d'entreprises qui prétendent que leur IA peut arrêter, prévenir, détecter ou

Il n'y a rien de tel qu'une IA qui peut prédire le crime . Des centaines de capital-risqueurs et de PDG de startups de l'IA peuvent demander à différer, mais le simple fait est qu'aucun humain ou machine ne peut voir l'avenir (exception: ordinateurs quantiques farfelus ). [19659002] L'IA peut parfois détecter des objets avec un minimum de précision – certains systèmes peuvent déterminer si une personne a un téléphone portable ou une arme à feu dans ses poches. Il peut potentiellement empêcher un crime de se produire en limitant l'accès, comme le verrouillage des portes si une arme à feu est détectée jusqu'à ce qu'un être humain puisse déterminer si la menace est réelle ou non.

Mais AI prétendait prédire les crimes sont simplement des systèmes de surveillance construits sur la prestidigitation. Lorsque les organismes d'application de la loi affirment utiliser un logiciel de prévision du crime, ce qu'ils veulent vraiment dire c'est qu'ils ont un ordinateur qui leur dit que les endroits où de nombreuses personnes ont déjà été arrêtées sont d'excellents endroits pour arrêter plus de gens. AI s'appuie sur les données qui lui sont fournies pour faire des suppositions qui plairont à ses développeurs.

Lorsque les aéroports et autres voies publiques utilisent la reconnaissance faciale, les responsables du déploiement de celle-ci presque toujours affirment que cela sauvera du temps et des vies . Ils nous disent que le système peut analyser les foules à la recherche de terroristes, de personnes mal intentionnées et de criminels en général. Nous sommes amenés à croire que des milliers d'armes à feu, de bombes et d'autres types de menaces seront renversés si nous utilisons leur technologie.

Mais quel est le véritable avantage? Nous partons du principe que chaque seconde pourrait être la dernière, que nous sommes en danger chaque fois que nous entrons dans un espace public. Nous sommes apparemment confrontés au choix de la vie ou de la mort d'avoir l'intimité ou de vivre l'expérience de nous exposer au grand public.

La raison et les statistiques générales nous diraient que cela ne peut pas être le cas. En fait, vous êtes plus susceptible de mourir d'une maladie, d'un accident de voiture ou d'une surdose de drogue que d'être assassiné par un étranger ou tué par un terroriste.

Il semblerait que le succès mesurable de l'avantage – une entreprise affirme avoir trouvé environ 5 000 menaces en analysant plus de 50 millions de personnes – ce qui ne l'emporte pas sur les risques potentiels. Nous n'avons aucun moyen de savoir quels auraient été les résultats concrets de ces 5 000 menaces, mais nous savons exactement ce qui peut se produire lorsque la technologie de surveillance du gouvernement est utilisée à mauvais escient.

Le PDG de TNW, Boris Veldhuijzen Van Zanten, a dit ceci au sujet de notre la vie privée dans un article qu'il a écrit sur les gens qui pensent qu'ils n'ont rien à cacher:

Avant la Seconde Guerre mondiale, la ville d'Amsterdam pensait qu'il était agréable de conserver autant d'informations que possible. Ils ont pensé; plus vous en saurez sur vos citoyens, mieux vous pourrez les aider, et les citoyens sont d'accord. Ensuite, les nazis sont venus à la recherche de Juifs, de gays et de tous ceux qu'ils n'aimaient pas et ont dit: "C'est pratique, vous avez des enregistrements sur tout!" Ils ont utilisé ces enregistrements pour ramasser et tuer très efficacement beaucoup de

Aujourd'hui, l'idée que le gouvernement nous traque tous à l'aide d'un logiciel de reconnaissance faciale ne semble pas si effrayante. Si nous sommes de bonnes personnes, nous n'avons rien à craindre . Mais que se passe-t-il si les mauvais acteurs ou le gouvernement ne pensent pas que nous sommes de bonnes personnes? Et si nous sommes LGBTQIA + dans un état ou un pays où le gouvernement est autorisé à discriminer contre nous?

Et si notre gouvernement, la police ou nos rivaux politiques créent des bases de données de gais connus, musulmans, juifs, chrétiens, républicains qui soutiennent l'amendement 2 nd médecins désireux de pratiquer des avortements, militants «Antifa» ou «Alt-droite», et utilise l'IA pour identifier, discriminer et suivre les personnes qu'ils jugent ennemies. L'histoire nous dit que ces choses ne sont pas seulement possibles, jusqu'à présent, elles ont été inévitables.

Nous passons le temps de la réglementation et vers un certain regret.




Source link