Site icon Blog ARC Optimizer

Intelligence artificielle biaisée: pouvez-vous la combattre?


Apparemment, je ne vaux rien. J'étais dans la rue en même temps qu'un bébé, un vieil homme et un chien errant, et une voiture autonome les a tous évités et a fait un bond en avant!

C'est une blague futuriste de New York Times . Des chercheurs du MIT ont abordé cette situation, connue sous le nom de «problème du tramway». Les résultats ont été récemment publiés posant une question importante pour notre avenir autonome: comment une voiture autonome devrait-elle prendre des décisions vitales ou mortelles? Supposons qu'une voiture autonome à grande vitesse rencontre un groupe de personnes et d'animaux domestiques sur la route. Quelle devrait être son action, à supposer que la voiture sache qu'elle ne peut pas s'arrêter à temps? La voiture devrait-elle donner la priorité à ses passagers par rapport aux piétons, par opposition à moins de personnes, par-dessus les adultes, par-dessus par les femmes, par les hommes, par les personnes âgées, par le statut social élevé par rapport aux piétons, par les piétons par les piétons ou par les humains par les animaux domestiques? Et finalement, la voiture devrait-elle éviter de heurter un véhicule adjacent ou de rester sur le cap?

Hollywood a tenté de s’y attaquer avec brio dans le film de 2004 I, Robot . Dans le film, un robot se heurtait à une énigme: choisir entre sauver un adulte ou un enfant de la noyade. AI a calculé les chances de survie et choisi de sauver l'adulte, même si l'adulte aurait probablement (probablement) pu se sauver.

Si vous revenez à la question du MIT et essayez d'y répondre vous-même, vous vous en rendrez compte, vous vous en rendrez compte. n'y a pas de réponses faciles. Maintenant, essayez de demander à la personne à côté de vous et, si possible, à une culture ou à une culture différente. Les personnes que vous tenteriez de sauver varient selon les cultures:

  • Les personnes issues de cultures collectivistes comme la Chine et le Japon accordent une importance accrue au respect des personnes âgées. Cela signifie qu'ils sont plus enclins à épargner les plus âgés aux plus âgés.
  • Les habitants des pays pauvres dotés d'institutions plus faibles sont plus tolérants à l'égard des mafieux que les piétons sur le trottoir.
  • Les habitants de pays caractérisés par de fortes inégalités économiques sont plus nombreux écarts entre le traitement réservé aux personnes à statut social élevé et faible.
  • Contrairement aux idées reçues, le nombre considérable de personnes en danger ne constitue pas toujours le facteur dominant dans le choix des personnes qui doivent être épargnées.

La bonne nouvelle est que les voitures autonomes seront en mesure de prendre cette décision dans un proche avenir. Les éléments qui ne sont pas si clairs sont quels sont les paramètres pour prendre une telle décision, et qui doit décider si la décision est correcte? Quels sont les antécédents, la morale, l’éthique et la signification culturelle des décideurs?

Malgré tout le chaos sur les potentiels et les dangers de la conduite autonome, nous manquons l’image globale et ne posons pas les questions pertinentes. En fait, presque tous les scénarios d'intelligence artificielle dans le domaine personnel (sans les robots industriels) conduisent à des situations que la société s'est efforcée d'éliminer ou de réduire de manière significative dans la vie réelle:

  • La reconnaissance faciale semble être le deuxième favori (après voitures autonomes). Après des succès initiaux, lorsqu'il est largement appliqué, il tend à signaler les personnes de certains milieux comme suspectes voire criminelles . Il ne semble tout simplement pas aller au-delà de la couleur ou des couches sociales.
  • Amazon a créé un outil d’IA qui traite les curriculum vitae en fonction des habitudes d’embauche des 10 dernières années. Dans un triste reflet de la diversité des sexes (pauvres) dans la technologie, l'outil a été considéré comme présentant un biais de recrutement contre les femmes et a finalement été supprimé.
  • Dans un exemple de chatbot raciste il ne fallut que 24 heures aux gens pour enseigner des énoncés racistes au bot de Microsoft, Tay. Il s'agit d'un cas classique de technologie suite à des préjugés de la société, et même les grandes entreprises ne trouvent pas cela facile à gérer.

Il peut s'agir d'un cas simple de résultats inattendus basés sur des ensembles de données erronés. Il est facile de blâmer les données d'entrée (car elles reflètent la réalité). Cependant, les données et l'algorithme traitant les données doivent être examinés. Les données saisies par l'algorithme doivent refléter les réalités du monde – du genre et de la culture aux attributs physiques et autres. Tout comme la diversité dans le monde réel, les données utilisées pour enseigner l'IA doivent être diverses. Cette diversité de données n’est pas simplement une diversité en termes de sources de données, mais aussi de types de données. L'ensemble de données représente-t-il un sexe, un groupe d'âge, une race, un contexte économique, des opinions politiques, etc.? Les données représentent-elles le monde entier?

Mais un ensemble de données diversifié ne nous mènera que jusqu'à un certain point. La deuxième partie de l'équation est l'algorithme – le cerveau de toute l'opération. La manière dont l’algorithme est conçu et implémenté est importante. Les algorithmes peuvent intentionnellement ou non amener les préjugés et les préjugés du monde réel. Ils peuvent être programmés pour ignorer un certain ensemble de données – qu'ils le fassent ou non; ou comme les programmeurs aiment demander: est-ce un bug ou une fonctionnalité? Les algorithmes sont-ils conçus pour les cas extrêmes ou uniquement pour les membres aisés d'une société?

Il sera ironique que les algorithmes de flux de nouvelles des sites de médias sociaux déterminent si les rumeurs sur l'IA sont très populaires et commencent à montrer ces articles. plus dans leurs flux, menant à un autre cercle vicieux d'opinions, de popularité et de panique.

Attendez, cela se produit peut-être déjà!

En tant que consommateur d'IA, la dernière question à poser est celle de savoir à qui sont les données et les algorithmes utilisés ? Quelles sont leurs morales, leur éthique et leurs normes culturelles? Correspondent-ils aux nôtres? Prendront-ils une décision semblable à la nôtre? Et sommes-nous en danger de perdre notre humanité en nous appuyant si lourdement sur l'intelligence artificielle?

Nous vivrons bientôt à l'ère de l'IA. De plus en plus, il prend les décisions qui affectent nos vies – admissions dans les collèges, notre lieu de travail, notre travail est évalué, si nous obtenons un prêt immobilier, combien nous payons pour l'assurance et comment les forces de l'ordre nous traitent. En théorie, cela devrait conduire à plus d'efficacité, de commodité et d'équité – tout le monde est jugé selon les mêmes règles et les préjugés sont éliminés. Malheureusement, ce n'est toujours pas une réalité. Toutes les parties prenantes doivent œuvrer pour que l'IA soit prête pour le monde global et qu'elle soit comprise, acceptée et adoptée par le monde global.

Le principe de l'IA est de rendre notre monde et nos vies meilleurs. Nous ne pouvons pas lui permettre d’apporter (ni même de durcir) les préjugés et les préjugés à notre avenir.

Une version de ce blog est parue plus tôt sur LinkedIn Pulse .

L’ère de l’éthique des données est à nos portes – et seules les entreprises respectant les normes les plus strictes vont conquérir les clients mondiaux: " Pouvez-vous garder un secret de données? "

<! – Commentaires ->




Source link
Quitter la version mobile