Site icon Blog ARC Optimizer

PDG de la société de reconnaissance faciale explique pourquoi la surveillance du gouvernement est mauvaise pour la vie privée



C'est la politique comme d'habitude aux Etats-Unis cette semaine. Le président est sur Twitter se plaindre du gouvernement fédéral qui l'espionne alors que Jeff Bezos chevauche l'amazone jusqu'à Surveillance-ville, Floride . Pris au milieu est l'idée même de la vie privée, quelque chose que Brian Brackeen, PDG et fondateur de Kairos pense être assailli.

"Il est à la fois terrifiant intéressant et intéressant terrifiant"

Selon VICE, TNW Conférence est tout à fait l'événement

Voici la chose: Kairos est un démarrage d'IA qui se spécialise dans la technologie de reconnaissance faciale. Ainsi, quand Brackeen a dit à TNW qu'il «appelait à une surveillance fondée sur la reconnaissance face à face», parce que «c'est faux», nous avons estimé qu'il valait la peine de l'entendre

. nous, ils peuvent faire quelque chose Sundar Pichai et Jeff Bezos ne peuvent pas: refuser un contrat gouvernemental lucratif pour développer une IA éthiquement discutable.

Se référant aux dernières nouvelles Amazon aide la loi américaine Les agences d'exécution dans le déploiement de la reconnaissance faciale AI, Brackeen a déclaré à TNW:

Il est décevant de voir un nom de ménage comme Amazon complètement laisser tomber la balle ici. En tant que PDG d'une société indépendante de reconnaissance faciale, nous nous sommes toujours engagés à réfléchir profondément à la manière dont notre technologie pourrait avoir un impact sur la vie des gens. Même choisir de ne pas travailler avec certains clients, si nous voyons des signes d'abus potentiel. Nous ne chasserons pas les profits au détriment des droits de l'homme. Je continue à plaider en faveur de la réglementation dans ce domaine, nous ne pouvons pas continuer comme une industrie «non vérifiée».

Alors, quel est le problème? Pourquoi les experts en protection de la vie privée les PDG de la technologie et l'ACLU sont-ils tous terrifiés à l'idée que le gouvernement utilise la technologie de reconnaissance faciale artificielle

? les méchants de la même manière qu'un réseau physique géant le ferait. Au lieu de traiter tous les individus comme innocents – ce qui signifie qu'ils ont droit à leur intimité jusqu'à ce qu'ils fassent quelque chose de mal – ils considèrent tout le monde comme suspect en nous examinant tous et en permettant à un algorithme de décider si nous avons fait quelque chose de mal. 19659003] L'idée que les gens qui n'ont rien fait de mal ne devrait pas être inquiet ne s'applique pas lorsque l'invasion de la vie privée est universelle, car elle devient aux États-Unis et est déjà en Chine. C'est parce que nous n'avons pas résolu le problème du biais tout le monde ne travaille pas en dehors de la boîte noire et il y a peu de révision par les pairs pour les algorithmes qui sont constamment en cours de développement.

Brackeen explique le problème:

Des algorithmes imparfaits, des données d'apprentissage non divers et des implémentations mal conçues augmentent considérablement les chances de résultats douteux. Les cas d'utilisation de surveillance, tels que les body-cams de reconnaissance de visage activés, demandent trop d'algorithmes d'aujourd'hui. Ils ne peuvent même pas fournir des réponses adéquates aux défis présentés pour l'appliquer dans le monde réel. Et c'est avant même que nous nous penchions sur le côté éthique de l'argument.

Et les implications éthiques, selon Brackeen, devraient concerner tous les Américains:

Amazon Rekognition revendique la capacité de rechercher et de suivre les gens en temps réel, en utilisant une base de données de visages de plusieurs millions de personnes, qui automatise essentiellement les capacités de surveillance de l'application de la loi à une échelle sans précédent. Américains réguliers sont maintenant involontairement ouverts à être analysés et catégorisés en fonction de leur apparence. Cette «intelligence» pourrait alors être utilisée pour «signaler» les individus pour une évaluation plus approfondie par les autorités. Lors de rassemblements publics événements sportifs, célébrations nationales et même des rassemblements politiques ou des manifestations, la vie privée des personnes est en danger.

Les écoliers en Chine sont maintenant sous surveillance par AI capable d'effectuer une reconnaissance émotionnelle et d'analyse. Comme nous l'avons souligné auparavant, cela donne au gouvernement un fantastique détecteur de mensonges capable de déterminer si un enfant s'identifiera comme gay ou protestera contre le gouvernement.

On pourrait soutenir que le problème du parti pris est exacerbée aux États-Unis. AI qui cible les immigrés a été montré pour contenir des préjugés humains. Et Pro Publica a presque gagné un Pulitzer pour ses reportages sur la façon dont l'IA utilisée par le système judiciaire a montré un préjugé humain contre les non-Blancs

Si nous ne résolvons pas les préjugés humains – bigoterie et racisme – nous ne pouvons pas garantir ça va être gardé hors de nos algorithmes. Et cela signifie que l'IA qui pourrait potentiellement effectuer une catégorisation rapide des gens est capable d'automatiser le fanatisme à une échelle vraiment monstrueuse.

Brackeen n'est pas seulement inquiet pour sa compagnie, il nous dit:

Au-delà de mon rôle de PDG, l'homme, la sévérité de ces revendications est une préoccupation majeure pour moi. La pression d'Amazon pour travailler avec les agences gouvernementales et les groupes d'application de la loi encourage l'utilisation de la surveillance pour cibler les communautés de couleur.

Imaginez un monde où nous avons déjà des problèmes dans la société et maintenant nous exacerbons ces préjugés avec une technologie sous-performante. Même une légère augmentation des taux d'appariement erronés des algorithmes de reconnaissance faciale, lorsqu'ils sont appliqués à grande échelle, pourrait faire la différence entre des centaines de milliers de personnes ou des millions d'individus mal identifiés. Les préjugés existent dans le domaine de l'application de la loi, mais lorsque les systèmes eux-mêmes sont involontairement biaisés en raison d'algorithmes inadéquats, la combinaison peut être extrêmement dommageable.

L'avenir de telles coopérations entre les géants technologiques et le gouvernement américain Brackeen:

Je vois un monde où Amazon Rekognition pourrait envoyer en prison plus d'innocents Américains africains




Source link
Quitter la version mobile