Fermer

avril 10, 2019

L'éthique des algorithmes (partie 2)


La deuxième partie d'une série en deux parties explique comment la gestion de la durabilité peut favoriser la confiance dans l'utilisation de l'intelligence artificielle. Lire Partie 1.

La partie 1 de cette série examinait la croissance projetée de l'utilisation de l'intelligence artificielle (AI) – et des risques potentiels. Dans la deuxième partie, nous examinerons les méthodes de déploiement responsable.

La ligne directrice générale: droits de l'homme universels

Les droits de l'homme universels devraient être la ligne directrice centrale de l'action. Aucun autre système de valeur n'offre des opportunités comparables pour gagner la confiance des employés, des investisseurs, des clients et de la société civile dans le traitement de l'IA. Seuls ceux qui démontrent de manière crédible que leur trajectoire d'IA respecte la valeur fondamentale de la dignité humaine peuvent efficacement contrebalancer les préoccupations souvent encore très diverses relatives à l'utilisation de systèmes informatiques à auto-apprentissage. La protection des droits de l'homme fait donc partie intégrante du noyau non négociable de la gouvernance de l'IA – notamment pour les entreprises opérant dans le monde entier et disposant d'un cadre politique, juridique et culturel pouvant varier considérablement d'un pays à l'autre.

les développeurs et les utilisateurs découvrent-ils si leur pratique actuelle en matière d'IA est réellement conforme aux droits humains? Les entreprises peuvent fournir des directives éthiques avec une orientation pratique. Les directives doivent définir les défis de l'IA pertinents pour la création de valeur et les principes qui doivent être observés pour faire face à ces défis, en tenant compte de leur stratégie commerciale, de leur modèle commercial et de leurs compétences essentielles. À cet égard, le secteur financier en est encore à ses balbutiements. Les directives en matière d'éthique sont actuellement plus répandues dans le secteur des technologies, y compris chez des acteurs internationaux tels que Google et Microsoft, ainsi que dans Deutsche Telekom et SAP.

Un cadre pour une gouvernance consciencieuse de l'IA

Si une technologie comme l'IA est conforme aux principes éthiques d'une entreprise Les principes dépendent avant tout de son emplacement et de son objectif. Il ne suffit pas de simplement mettre à disposition une technologie et de laisser ensuite son application au libre jeu des forces du marché. Il incombe aux fournisseurs d’IA de comprendre précisément ce qui peut arriver à leurs systèmes avant chaque nouvelle livraison. Dans ce contexte, il est extrêmement important d'avoir des ventes et des conseils à bord, en plus du développement de produits. Dans de nombreux cas, ces collègues ont le contact le plus direct avec le client et sont les premiers dans l’entreprise à pouvoir évaluer les objectifs du système. Si des utilisations contraires aux intentions initiales sont connues, des accords contractuels étanches doivent être conclus, en particulier lorsque les moyens de réglementation externes ne sont pas encore suffisants.

Avec AI, les capacités technologiques et les scénarios d’application sont soumis à une rapidité extraordinaire. changement. Pour rester dans le coup, les entreprises doivent mettre en place des organes de pilotage et de conseil permanents qui se réunissent régulièrement et sur une base ad hoc en cas de besoin. Chez SAP, nous avons formé le comité de direction sur l'éthique d'Amnesty International, qui réunit des dirigeants des régions même les plus touchées par le changement d'AI. Il s'agit notamment de la stratégie d'entreprise, du développement de produits, de la sécurité / protection des données, de la transformation numérique, des ressources humaines, du droit et de la gestion de la durabilité.

L'importance d'une vision extérieure

Si vous souhaitez définir vos directives en matière d'éthique et relever de nouveaux défis rapidement, vous avez également besoin d'une perspective extérieure. Ici aussi, il est judicieux de mettre en place un format d’échange régulier. Pour cette raison, nous avons décidé d’augmenter les travaux de notre comité directeur interne avec le comité consultatif externe sur l’éthique d’Amnesty International. Le groupe se compose actuellement de cinq experts indépendants travaillant dans les domaines de la science, du gouvernement et du commerce.

Cependant, toutes les applications de l'IA ne comportent pas uniquement des risques. Au contraire, la majorité des scénarios de déploiement possibles sont souhaitables à tous égards. S'occuper du contrôle conforme à la valeur de l'IA implique bien plus que la simple gestion des risques. Il est tout aussi important de cibler les opportunités et le potentiel de développement apportés par les technologies de l'IA. Cela vaut également pour la mise en œuvre des 17 objectifs de développement durable (ODD) des Nations Unies.

Nouvelles opportunités grâce à l'IA

Le fait que les intérêts économiques et les responsabilités de la société civile puissent aller de pair est démontré par les approches adoptées en matière financière. secteur. Par exemple, le financier immobilier américain Freddie Mac, associé à une équipe de chercheurs de l’Université George Washington, a démontré que le recours à l’Intelligence artificielle pouvait injecter de l’équité dans le processus d’octroi de prêts à la clientèle. Grâce à AI, le nombre d'engagements de prêts a augmenté dans les groupes de candidats qui avaient précédemment reçu beaucoup moins d'engagements au cours d'une procédure de passation de marché analogue. La condition sine qua non de ce succès est de libérer les algorithmes de préjugés statistiques. De cette manière, des solutions sont créées qui promeuvent l'acceptation sociale de l'intelligence artificielle conformément aux objectifs commerciaux des entreprises.

Cet article a paru à l'origine dans B örsen-Zeitung . republié avec autorisation.

Suivez SAP Finance en ligne: @SAPFinance (Twitter) | LinkedIn | Facebook | YouTube




Source link