Fermer

août 7, 2019

Vous voulez une IA responsable? Pensez aux résultats commerciaux8 minutes de lecture


L'inquiétude croissante quant à la manière dont les systèmes d'IA peuvent incarner des jugements éthiques et des valeurs morales soulève de bonnes questions. Trop souvent, cependant, la solution semble être de reprocher à la technologie ou aux technologues.

La délégation des responsabilités n'est pas la solution.

Créer des applications éthiques et efficaces en intelligence artificielle exige un engagement de la part de l'ensemble du C-suite. Bien faire les choses est à la fois une question cruciale pour l’entreprise et une déclaration de valeurs qui nécessite le leadership du chef de la direction.

Les préoccupations éthiques soulevées par l’IA varient d’un secteur à l’autre. Les dilemmes associés aux voitures autonomes, par exemple, ne ressemblent en rien à la question de la partialité dans la reconnaissance faciale ou aux préoccupations en matière de vie privée associées aux nouvelles applications marketing. Ils partagent néanmoins un problème: même l'algorithme le plus réfléchi prend des décisions basées sur des entrées reflétant la vision du monde de ses concepteurs.

L'intelligence artificielle et ses technologies sœurs, l'apprentissage automatique et l'automatisation des processus robotiques, sont là pour rester. . Entre 2017 et 2018, les recherches de McKinsey & Company ont révélé que le pourcentage d'entreprises intégrant au moins une capacité d'IA dans leurs processus métier avait plus que doublé. Dans une étude différente, McKinsey estime que la valeur du déploiement de l'intelligence artificielle et de l'analyse dans tous les secteurs se situerait entre 950 et 15,4 billions de dollars américains par an. Dans notre propre travail, nous avons constaté que les principaux acteurs de l'industrie ont adopté la technologie pour améliorer l'efficacité de leurs activités actuelles et pour tester les opportunités de nouveaux modèles commerciaux.

Il n'y a pas de retour en arrière possible.

élan, il y a des appels à la réglementation, bien que la création d'un cadre réglementaire cohérent dans le monde entier sera décourageante. Les régulateurs devront trouver un équilibre entre la nécessité de prendre en compte les préoccupations sociales légitimes tout en encourageant l'innovation et la productivité, tout en restant compétitifs sur le marché international.

Un document récent de EY soutient que l'IA et l'apprentissage automatique progressent notre capacité à surveiller leur utilisation et souligne qu'il est risqué d'utiliser l'IA sans un cadre de gouvernance et d'éthique bien pensé. EY conçoit ces considérations comme une gestion des risques, mais constitue en réalité un guide pour renforcer la confiance lors du développement et du déploiement de toute technologie émergente.

EY n'est pas le seul. Des organisations telles que le Centre pour la quatrième révolution industrielle du Forum économique mondial le IEEE AI Now Le Partenariat sur AI Future of Life AI for Good et DeepMind entre autres, ont créé des principes conçus pour maximiser les avantages de l'intelligence artificielle et limiter ses risques.

Des risques imprévisibles?

D'après notre expérience, les organisations qui gèrent le mieux ces problèmes sont celles qui adoptent une nouvelle façon de penser, reconnaissant que même si les conséquences peuvent être involontaires, elles ne sont pas nécessairement imprévisibles.

associez erreurs, manque de discernement et myopie aux conséquences inattendues pour fuir les responsabilités. Alors que la technologie menace de faire avancer les freins et les contrepoids de la société, tous les dirigeants d'entreprise doivent s'interroger sur l'impact potentiel de leurs propres applications.

Les organisations peuvent travailler pour garantir la construction et l'application responsables de l'IA en se concentrant sur des résultats commerciaux très spécifiques. guider leurs efforts. Concevoir des applications spécialement conçues pour des résultats métier bien définis peut servir de garde-fou pour une croissance responsable, limiter les risques de conséquences imprévues et faire apparaître suffisamment tôt les conséquences négatives pour les atténuer.

sont clairs et le C-suite collabore avec le service informatique pour appliquer ces valeurs aux nombreuses décisions prises lors de la création d’une application.

Nous l’avons vu dans notre travail avec 25 industries différentes. Les meilleures pratiques émergent. Bien que les préoccupations éthiques diffèrent d'une application à l'autre, le même cadre peut aider. Les organisations qui se concentrent sur des résultats métier bien compris sont les mieux placées pour développer des applications responsables dans lesquelles la personnalisation est une valeur, et non une violation, dans laquelle les sources de données sont vérifiées pour tout biais, où la confidentialité des données est un principe directeur et où transparence et efficacité sont égales.

Lorsque les entreprises adoptent l'IA pour répondre à un besoin spécifique – facturation automatisée, comptabilité générale, budgétisation, conformité, par exemple, ou approvisionnement, logistique et service clientèle – l'impact est plus facile à comprendre et à gérer que le simple fait d'adopter AI pour l'amour d'Amnesty International. Parce que ces résultats sont au cœur de la mission principale de leur organisation et qu'ils sont si bien compris, il est simple de faire correspondre les valeurs de l'entreprise au processus de développement.

Applications professionnelles essentielles

Par exemple, vous êtes le fabricant du véhicule. Composants. En réunissant des périphériques connectés, des analyses prédictives, une intelligence artificielle et un apprentissage automatique pour améliorer les performances d'apprentissage approfondies de la fabrication, vous pouvez éviter des temps d'arrêt coûteux en exploitant des données relatives à la santé des équipements d'usine. Si vous êtes passionné par le service clientèle et que vous y accordez une grande importance, vous pouvez en tenir compte lors du développement de votre application.

Ou imaginons que vous développez un type d'application différent au service d'un résultat différent, comme l'identification des ventes modèles dans différentes régions pour vous aider à exécuter des campagnes plus ciblées. Votre stratégie peut impliquer des périphériques connectés, des analyses, une intelligence artificielle et un apprentissage automatique intégré. Vous pouvez également développer un moyen de suivre le flux de matériaux avec l'IdO. Avec l'historique des ventes par point de vente, vos audits en magasin peuvent être surveillés pour évaluer le succès des campagnes. Par conséquent, votre plan d'affaires annuel pourrait être disponible en quelques minutes et vos rapports générés automatiquement élimineraient des semaines de préparation manuelle des données.

Ces cas peuvent sembler peu sérieux en comparaison de certains exemples très en vogue dans l'actualité, mais elles sont typiques des types d'applications de base que nous voyons se développer, société après société. Ils sont définis autour d’un résultat bien compris qui est à la fois au cœur de la mission principale de l’entreprise et de son système de valeurs. Les deux exemples montrent comment une entreprise peut anticiper et éviter les conséquences imprévues en concentrant l’application là où elle dispose déjà de connaissances approfondies, où les hypothèses sont transparentes, où les données de base sont connues et fiables, et peut-être surtout, où les enjeux sont si importants que le leadership doit être surveillé.

La reconnaissance du risque par le chef de la direction est une bonne première étape. En fait, dans une étude récente de PwC, 77% des PDG ont déclaré qu'IA augmenterait la vulnérabilité et la perturbation de la manière dont ils mènent leurs activités.

Et si un appel aux valeurs ne résonne pas avec le C-suite, l'intérêt personnel devrait . Une étude récente du Capgemini Research Institute conclut que les clients et les employés récompenseront les entreprises qui pratiquent l'IA éthique avec une plus grande loyauté, davantage d'entreprises et même une volonté de les défendre – et puniront les autres. . L'étude confirme qu'il existe à la fois un risque de réputation et un impact direct sur le résultat net pour les entreprises qui n'abordent pas le problème de manière réfléchie.

D'après notre expérience, secteur après secteur, l'IA la plus responsable survient lorsque la direction de l'entreprise est pleinement engagée, lorsque les applications sont définies par des résultats commerciaux clairs qui sont au cœur de la mission de l'entreprise et que les technologies de l'information et les dirigeants collaborent pour faire face ensemble aux dilemmes commerciaux et éthiques.

Réédité avec l'autorisation de Knowledge @ Wharton, le journal de recherche et d'analyse commerciale en ligne de la Wharton School de l'Université de Pennsylvanie. Lisez l'article original .



Source link