Fermer

septembre 15, 2021

Les arguments en faveur d'une IA transparente6 minutes de lecture



Les avis exprimés par les contributeurs de Entrepreneur sont les leurs.

Vous lisez Entrepreneur United States, une franchise internationale d'Entrepreneur Media.

Je ne peux pas aller sur Facebook sans voir des magiciens.

Je peux remonter à quand j'ai regardé une vidéo de America's Got Talent. Cela a commencé avec les chanteurs, mais s'est rapidement déplacé vers d'autres catégories, y compris les illusionnistes. C'était suffisant pour dire aux algorithmes de Facebook que je devais m'intéresser à la magie et qu'elle devrait me montrer plus de ce qu'elle déduisait que je voulais voir. Maintenant, je dois faire attention, car si je clique sur l'un de ces contenus, cela renforcera la notion de l'algorithme selon laquelle je dois vraiment m'intéresser aux tours de cartes, et bientôt c'est tout ce que Facebook me montrera. Même s'il ne s'agissait que d'une curiosité passagère.

Mon expérience n'est pas nouvelle ou particulièrement unique – Eli Pariser nous a mis en garde contre les « bulles de filtrage » des médias sociaux en 2011 – mais c'est une illustration pratique de la endroits sombres qu'un algorithme peut vous emmener. Je peux être un peu ennuyé lorsque Facebook diffuse une vidéo de David Blaine, mais les bulles de filtre peuvent être carrément dangereuses, transformant des plates-formes autrement neutres en terrain fertile pour toutes sortes d'idées laides.

Où vont mes données ?

Le la vérité est que la plupart des gens ont peu de compréhension du fonctionnement de l'IA – ils savent simplement que les ordinateurs collectent leurs données. Et cela peut être effrayant.

Où vont ces données et qui y a accès ? Est-il utilisé à mon avantage, ou est-il exploité pour me vendre des choses et augmenter les bénéfices de l'entreprise ? Si vous proposez un produit ou un service intégrant l'IA, ce sont les questions que vos utilisateurs et clients se poseront. Si quelqu'un vous confie ses données, vous ne lui devez pas seulement des réponses. Vous leur devez la transparence.

Lorsque nous avons conçu Charli pour la première fois – notre logiciel qui utilise l'IA pour aider les clients à automatiser les tâches et à suivre tout leur contenu et autres "trucs" – nous l'avons envisagé comme un "feu et oublie" produit. En d'autres termes, nous demandions aux gens de remettre leurs données à Charli et de laisser l'IA s'en occuper.

C'était une bonne idée, mais nous nous sommes vite rendu compte que beaucoup de gens ne sont pas à l'aise avec ce noir opaque, approche par boîte. Ils ont peur de donner le contrôle de leur contenu à une machine, et c'est compréhensible. Des franchises de films entières ont été construites autour de cette peur, et bien que The Matrix et The Terminator soient certainement divertissants, personne ne veut y vivre pour de vrai.

Connexe : Comment tirer parti de l'intelligence artificielle dans les relations publiques

L'IA est intrinsèquement biaisée

Scénarios de cauchemar de science-fiction mis à part, nous voulons programmer nos machines pour qu'elles apprennent et évoluent, mais nous voulons le faire dans manière mesurée et prévisible. Ma bulle de filtre de médias sociaux remplie de magie peut m'agacer, mais c'est ainsi que fonctionnent les algorithmes aujourd'hui. Si vous construisez un réseau de modèles d'IA pour automatiser un ensemble spécifique de tâches pour vos clients, ils apprécieront probablement le fait que l'IA en a suffisamment appris à leur sujet pour être fiable. Si, par exemple, quelqu'un compte sur une application pour récupérer ses données lorsqu'il le demande, il ne veut pas de surprises. Ils veulent juste que cela fonctionne.

C'est là qu'intervient le biais. problème, mais le fait est que l'IA est intrinsèquement biaisée. C'est parce que l'IA dépend de modèles et de données d'entraînement développés par des êtres humains avec leurs propres préjugés. Le biais inhérent à l'IA fonctionne souvent à l'avantage de l'utilisateur, par exemple lorsqu'il permet à l'IA d'apprendre à travailler pour des utilisateurs individuels, chacun ayant son propre ensemble de préférences.

Pour élargir nos horizons, nous devrons introduire diversité dans l'IA, de la même manière que nous devons introduire la diversité dans nos vies réelles.

Connexe : Comment l'intelligence artificielle Will Shape Our Future

Donnez un volant au client

Changeons de vitesse une seconde. L'ère de l'automobile entièrement autonome n'est pas encore arrivée, mais ce n'est pas si loin. Il y a toutes sortes de conceptions en cours, et certaines d'entre elles n'ont même pas de volant.

Il y a des ingénieurs très brillants et talentueux qui travaillent dur sur ces projets, et je leur fais confiance – jusqu'à un certain point. Mais si je suis dans une voiture autonome et que quelque chose ne va pas, je veux pouvoir attraper un volant et tirer cette chose sur le côté de l'autoroute. En bref, je veux la possibilité de désactiver l'IA.

Si vous voulez que vos clients vous fassent confiance avec leurs données, donnez-leur un volant et mettez-les dans le siège du conducteur. Dans notre cas, cela signifiait dire à notre IA qu'elle ne pouvait rien faire avec le contenu d'un utilisateur sans d'abord stocker ce contenu dans Google Drive. De cette façon, l'utilisateur sait toujours où se trouvent ses affaires et il garde toujours le contrôle. Ils accordent peut-être à Charli la permission d'accéder à leurs données et d'automatiser certains processus qui les entourent, mais l'utilisateur peut également voir ce qui se passe et prendre le contrôle quand il le souhaite.

L'intelligence artificielle est avancée, mais elle n'en est qu'à ses débuts. Nous ne faisons qu'effleurer la surface de ce que l'IA peut faire, et nous sommes loin de trouver toutes les réponses aux problèmes de biais et de diversité. Cependant, ce que nous pouvons faire, c'est offrir à nos clients transparence et contrôle sur leurs propres affaires. Il n'y a rien de magique à cela; c'est juste une bonne affaire.

Connexe : C'est l'outil d'intelligence artificielle le plus puissant au monde




Source link

0 Partages