Fermer

juillet 9, 2018

Comment l'éthique numérique permet la confiance dans les affaires AI


Les technologies de l'intelligence artificielle (AI) ouvrent des portes à de nouvelles possibilités qui peuvent enrichir (et potentiellement nuire) à la vie de nombreuses personnes. L'éthique numérique peut aider à gérer les risques attendus des changements connexes sur le marché du travail et dans notre société.

L'automatisation croissante peut créer un monde où les gens ne doivent travailler que quelques heures par semaine – bien que ce soit un défi pour l'humanité. là sans agitation sociale. Le soutien à cette tendance vient de la tendance à réaliser des entreprises intelligentes en utilisant des systèmes d'IA intégrés dans la production et la gestion des affaires. Les assistants personnels seront le fer de lance d'une nouvelle génération d'interfaces utilisateur.

Les systèmes intelligents seront capables de communiquer avec les utilisateurs dans le style de la communication humaine. Là où M. Spock dans l'univers de Star Trek avait besoin d'appuyer sur des boutons pour interagir avec des machines, il y aura une reconnaissance vocale et gestuelle et peut-être des interfaces contrôlées par la pensée. En utilisant des lunettes de réalité augmentée, par exemple, tout peut devenir un périphérique – parce que n'importe quel mur ou table peut être augmenté avec des contrôles utiles pour interagir avec l'IA.

Semble un bel avenir pour la coexistence des humains et des machines. Nous devons simplement veiller à ce que cela soit fait intelligemment, en veillant à ce que les TI servent principalement les humains. Comme pour toute technologie avancée, l'impact de l'IA sur les individus et la société humaine est difficile à évaluer. Parce que l'IA est relativement nouvelle et que les avantages ne sont pas encore évidents, les gens craignent de perdre leur emploi pour des raisons d'efficacité ou parce qu'ils pensent que l'IA prend le relais. Il en résulte un manque de confiance dans l'IA.

Pour une intégration réussie et une large acceptation des technologies de l'IA dans nos activités quotidiennes, la confiance de l'utilisateur est donc cruciale. Le défi est que la confiance ne se construit pas uniquement sur l'échange de résultats informatiques – cela se passe à un niveau personnel. Par exemple, si un assistant personnel est très utile mais dévoile des données privées ou a une voix désagréable, les humains ne lui feront pas confiance.

Nous devons montrer que la confiance et l'efficacité de l'automatisation peuvent être des partenaires qui s'entraident . Un point de départ valable serait un ensemble de principes de conception à utiliser dans l'architecture des systèmes pour l'entreprise intelligente. Voici une proposition développée et utilisée par SAP Design:

  1. Intelligent automation: Lors de l'automatisation d'un processus, il faut le faire avec prudence et prévoyance.
  1. Augmentation humaine: La ​​technologie devrait être utilisée
  1. Garder les humains au courant: Les utilisateurs compteront sur des processus honnêtes et transparents et sur des méthodes raisonnables pour parvenir à leurs propres conclusions.
  1. Ethique numérique: Nous devons rechercher des partenaires de l'IA qui adhèrent aux valeurs éthiques humaines et au comportement social. Deux éléments importants seront la gestion des biais et des abus potentiels.

En fait, le dernier principe a le pouvoir d'établir un lien entre confiance et efficacité. Si une IA se comporte selon des lignes éthiques largement acceptées, les humains peuvent être sûrs d'être traités équitablement et individuellement, même en période d'automatisation

Confiance et efficacité en tant que partenaires

La confiance peut aussi être construite en utilisant un style de communication similaire. celle utilisée par les humains, répondant enfin aux exigences du test de Turing . L'IA devrait considérer les conventions culturelles et sociales au-delà des règles éthiques. Ces conventions peuvent dépendre de l'âge de l'utilisateur et de son environnement social. Bien sûr, la confiance exige qu'AI se conforme à la législation – en particulier aux réglementations sur la confidentialité des données. Ces sujets sont importants mais ne seront pas examinés en profondeur ici.

Avant de pouvoir commencer à implémenter ou à construire des systèmes d'IA, nous devons réfléchir à l'impact potentiel. Nous devons définir des objectifs, des exigences et des limites opérationnelles d'un point de vue humain. Commencez par un inventaire des tâches et des conditions aux limites du système. Être conscient des questions connexes aide à déterminer les domaines où les défis éthiques sont en attente.

Poser des questions comme celles-ci est utile pour comprendre ce que fera l'IA et estimer son impact.

  • Les tâches du système d'IA pourraient affecter la vie humaine
  • Les machines seront-elles meilleures que les humains à cette tâche? Dans quels domaines?
  • Les humains bénéficieront-ils du transfert à l'IA? Quels rôles bénéficieront aux utilisateurs?
  • Quels conseils seront donnés et quelles décisions seront prises par le système?
  • Quels types d'informations le système sera-t-il autorisé à gérer (entrant, sortant)? le système doit-il apprendre?
  • Y a-t-il des situations qui exigent un comportement éthique spécifique (par exemple des situations d'urgence)?
  • Quelles technologies seront utilisées (par exemple, UX, apprentissage automatique, etc.)? peut être consulté ou affecté (par exemple, machines de production, robots, feux de circulation)?
  • La ​​durabilité environnementale sera-t-elle améliorée en utilisant l'IA?

Savoir ce que l'IA devrait faire et comment améliorer la vie humaine penser à des défis éthiques potentiels. Une liste de questions est utile pour examiner les aspects du comportement systémique éthique dans des situations spécifiques. Une proposition pour un ensemble de questions sera traitée dans la deuxième partie de ce blog

En savoir plus sur les raisons pour lesquelles l'éthique numérique est importante

<! – Commentaires ->




Source link