Fermer

mars 28, 2019

Google forme un conseil externe pour favoriser l'IA "responsable"


Cela contribuera à régir la reconnaissance faciale, l'apprentissage automatique et au-delà.


2 min de lecture


Cette histoire a été publiée à l'origine sur Engadget

. Google rejoint Facebook Stanford et d'autres organisations qui créent des institutions pour soutenir l'IA éthique. La société a créé un conseil consultatif externe sur les technologies de pointe qui formera le "développement et l'utilisation responsables" de l'IA dans ses produits. L’organisation réfléchira à la reconnaissance faciale, aux algorithmes d’apprentissage automatique équitables et à d’autres questions éthiques. Le conseil initial est un groupe diversifié qui aborde un éventail de disciplines et d'expériences.

Les conseillers actuels incluent des universitaires spécialisés dans les aspects techniques de l'IA (tels que les mathématiques informatiques et les drones), ainsi que des experts en éthique, en protection de la vie privée et en politique politique. . Il y a aussi une orientation internationale, avec des personnes allant d'aussi loin que Hong Kong et l'Afrique du Sud.

ATEAC tiendra sa première réunion en avril et en prévoit trois autres au cours de 2019. Et bien qu'ils jouent clairement dans Dans le cadre du processus de développement de Google, la société publiera des résumés de ses entretiens et incitera ses membres à partager des informations "généralisables" avec leurs organisations existantes. L'objectif est d'améliorer le secteur technologique dans son ensemble, et pas seulement le travail de Google.

Le conseil a été créé à la suite de la promesse faite par Google d'intégrer l'IA éthique à la suite de la controverse entourant son implication dans le projet de l'armée américaine. Maven initiative drone. En réalité, Google tente d'éviter de répéter l'histoire en demandant au conseil de remettre en question ses décisions.




Source link