Fermer

juin 2, 2020

Comprendre l'éthique de l'IA



En 2018, Elaine Herzberg a été tuée dans ce qui serait le premier décès d'un piéton par un véhicule autonome . L'incident a attiré l'attention du monde et a mis en lumière l'éthique de l'IA.

La mort d'Elaine Herzberg a été choquante car elle a soulevé la question de savoir si nous pouvions faire confiance à l'intelligence artificielle (IA) avec quelque chose d'aussi important que notre vie. Mais qu'est-ce que cela signifie pour les entreprises qui cherchent à exploiter cette technologie? Le Forum économique mondial (WEF) appelle cette IA responsable et la recherche a montré que les organisations sont de plus en plus préoccupées par les implications de l'IA.

Comme Angel Gurria Secrétaire général de la L'Organisation de coopération et de développement économiques (OCDE) a déclaré: «Pour réaliser le plein potentiel de la technologie de l'IA, nous avons besoin d'un ingrédient essentiel. Cet ingrédient essentiel est la confiance. "

Définition de l'éthique de l'IA

Nous avons été témoins de beaucoup d'inquiétude de la part de Elon Musk de Tesla concernant le potentiel de dommages de l'IA. La bonne nouvelle est que l'IA n'est pas sur le point d'atteindre un état d'intelligence générale – où les machines peuvent comprendre et apprendre comme les humains – de sitôt. En attendant, il reste un outil créé par les humains pour soutenir l'activité humaine.

L'IA – en particulier l'apprentissage automatique – fonctionne en prenant des entrées de données, en apprenant quelque chose à partir des données et, à partir de cela, en inférant quelque chose pour faire des prédictions.

Cela soulève la question de savoir comment nous jugeons si une sortie d'un système d'IA est sûre et ne succombera pas à des biais ou ne causera aucun dommage. C'est le nœud de l'éthique de l'IA.

Comment le développeur de l'IA enseigne-t-il et aide-t-il son véhicule autonome à prendre une décision en cas d'accident? L'IA devrait-elle accorder la priorité à la protection de ses passagers ou des personnes à l'extérieur du véhicule?

Déterminer si un résultat est éthiquement acceptable peut soulever des désaccords raisonnables. Au cours de cette période de COVID-19, les médecins, les politiciens et le public peuvent ne pas être d'accord sur l'éthique des décisions en matière de soins de santé, comme la priorité accordée aux ventilateurs entre les jeunes au lieu des patients plus âgés. Si les humains peuvent être en désaccord, comment une IA peut-elle faire mieux?

Dans un environnement professionnel où l'IA est utilisée pour automatiser des processus ou améliorer l'expérience client, l'éthique peut sembler légèrement moins importante. Mais, pour toutes les organisations, le principal objectif de l'IA sera de fournir des informations qui améliorent la prise de décision.

Dans un récent rapport de recherche d'Accenture plus de 90% des déploiements d'IA les plus réussis étaient axés sur l'éthique – contre moins de la moitié des

Problèmes clés de l'éthique de l'IA

Il existe de nombreuses questions éthiques sur l'impact sociétal de l'IA, et si vous êtes intéressé Si je recommande l'excellent Guide de l'auto-stoppeur sur l'éthique de l'IA . Pour l'instant, je vais me concentrer spécifiquement sur l'éthique de la création de solutions d'IA dans un environnement commercial.

Biais

Le domaine de l'éthique qui a peut-être reçu la plus grande attention est le biais, lorsque les modèles de données biaisés ou les préjugés des développeurs sont involontairement se glisse dans le système AI. Même des géants comme Apple et Goldman Sachs ont commis une faute avec la Apple Card accusée de parti pris sexiste. Ce n'est pas surprenant quand on considère qu'il existe 188 biais cognitifs différents . Qu'il s'agisse d'un préjudice inconscient du créateur du système d'IA ou d'un biais intégré au modèle de données utilisé par le système, les résultats seront que les résultats seront probablement injustes, discriminatoires ou tout simplement faux.

Responsabilité et explicabilité

les concepts de responsabilité et d'explicabilité sont bien compris dans la vie quotidienne. Si vous êtes responsable de quelque chose, vous devriez pouvoir expliquer pourquoi cela s'est produit. Il en va de même dans le monde de l'IA. Il est essentiel que toutes les actions que l'IA entreprenne puissent être entièrement expliquées et auditées. Elle doit pouvoir être tenue pour responsable.

Transparence

Pour être responsable, le système d'IA doit être transparent. Cependant, de nombreuses solutions d'IA adoptent une approche de «boîte noire» qui ne permet pas la visibilité des algorithmes sous-jacents. Cela peut être dû au fait que les algorithmes sont incroyablement complexes, mais souvent c'est au fournisseur qui souhaite protéger sa propre propriété intellectuelle. Cependant, une nouvelle génération de solutions d'IA qui embrassent l'open source – comme OpenText Magellan – permettent aux organisations d'intégrer leurs propres algorithmes et de vérifier la qualité des algorithmes par rapport à leurs propres données. Cela a également l'avantage supplémentaire d'embrasser la création open source de nouveaux algorithmes conduisant à des innovations plus rapides et de meilleure qualité.

Assurance des données

Un point clé dans la création de systèmes d'IA est la façon dont vous travaillez avec les données – en particulier les données personnelles données – utilisées pour remplir vos modèles. L'apprentissage automatique et l'apprentissage en profondeur nécessitent d'énormes ensembles de données pour apprendre et s'améliorer. Plus il y a de données, meilleurs sont les résultats au fil du temps. Cependant, la législation sur la confidentialité – comme GDPR ou CCPA – impose de nouveaux niveaux de responsabilité aux organisations quant à la façon dont elles capturent, stockent, utilisent, partagent et déclarent les données personnelles qu'elles détiennent. Vous devez savoir comment et pourquoi vous traitez les données et les risques encourus.

Instaurer l'éthique dans vos capacités d'IA

Même si vous avez une équipe de scientifiques des données expérimentés dans votre organisation, beaucoup d'éthiques les défis seront encore relativement nouveaux. C'est une bonne pratique de mettre en place une équipe de pilotage dans toute l'entreprise et de mettre en place un cadre éthique qui décrit ce que l'IA est censée faire, comment elle doit être créée et quels sont les résultats attendus.

OpenText Professional Les services ont travaillé avec des organisations du monde entier pour s'assurer qu'ils intègrent – et suivent – une approche éthique au développement de leurs systèmes d'IA. Le Harvard Business Review répertorie la technologie, y compris l'intelligence artificielle, comme l'un des éléments clés pour parvenir à une transformation numérique efficace et réussie. Nous pouvons vous aider en:

  • Réalisation d'une évaluation de vos processus, politiques et compétences en matière d'IA actuels
  • Développement de stratégies d'atténuation des risques pour le développement et le déploiement de l'IA
  • Conception et supervision de tactiques qui réalisent vos stratégies d'atténuation des risques
  • Élaboration d'un programme complet de prévention, de gestion des risques et d'éducation
  • Création d'un programme d'assurance et de surveillance de la qualité avec des indicateurs de performance clés établis
  • Détermination du succès de l'IA depuis le début

L'équipe comprend un large éventail d'experts en éthique, AI des experts et des scientifiques des données qui peuvent vous aider à relever avec succès les défis éthiques alors que l'IA est déployée plus profondément dans votre entreprise.

Si vous souhaitez en savoir plus sur la façon dont OpenText Professional Services peut vous aider à gérer l'éthique risque dans votre parcours de l'IA, veuillez visiter notre site Web .




Source link