Dans la première partie de ce blog, nous avons vu que les principes de conception et l'éthique numérique construisent la confiance dans l'intelligence artificielle . Cependant, nous n'avons pas abordé les domaines où nous sommes le plus susceptibles de rencontrer ces défis éthiques. Une liste de contrôle peut aider à identifier les pièges les plus pertinents. Une telle liste doit être définie pour les tâches d'IA individuelles et la planification, la mise en œuvre, le fonctionnement et les procédures, ainsi que les facteurs nécessaires pour mettre fin à la vie d'un système d'IA

Les questions suivantes peuvent vous aider à formuler ce type de liste. La plupart des éléments s'appliquent à plusieurs phases et devraient être utiles pour créer des listes de contrôle spécifiques à l'IA

Participation humaine

Commençons par quelques questions sur l'implication humaine dans les processus pilotés par l'IA. impliqués et quelles sont leurs exigences éthiques individuelles?

  • Dans quels contextes les utilisateurs travailleront-ils? Créer des paramètres
  • Comment l'état actuel d'un utilisateur est-il évalué et utilisé (par exemple, voyager, stressé)?
  • Quel est l'environnement culturel de l'utilisateur? Quelles sont les valeurs éthiques et sociales partagées par les utilisateurs?
  • Y aura-t-il des situations dans lesquelles l'utilisateur doit ou veut désactiver complètement ou partiellement les fonctions AI ("escape door")?
  • Si un retour utilisateur explicite est demandé, Comment sera-t-il évalué? Comment est-il utilisé pour l'apprentissage automatique?

Algorithmes et conditions aux limites

Une des exigences de l'IA d'entreprise est d'être transparent, en particulier sur la raison pour laquelle un résultat a été obtenu. Cela peut être difficile (voire impossible) pour certaines technologies d'intelligence artificielle comme les réseaux de neurones. Voici quelques éléments de la liste de contrôle concernant les limites technologiques

  • À quoi ressemblera le processus d'apprentissage automatique? Comment les processus «apprendre et oublier» peuvent-ils être surveillés (par exemple, en cas de données périmées ou d'obligations de suppression légales)? Comment les humains seront-ils impliqués ici (par exemple, sous la forme d'un "auditeur de l'IA")?
  • Quelles sont les règles de l'IA "apprendre et oublier"? Comment peuvent-ils être personnalisés?
  • Comment la qualité de l'information utilisée pour l'apprentissage peut-elle être surveillée?
  • Comment les machines évaluent-elles quand un humain doit être impliqué dans une décision ou un conseil?
  • Quelles sont les limites des décisions ou propositions créées par le système (perspectives de processus et de données)
  • Dans quels cas un processus nécessite-t-il un principe à quatre yeux (deux personnes doivent tout examiner) ou d'autres mesures de confiance?
  • Les résultats de calcul peuvent-ils – et comment? ont été atteints – être compris par les humains (c'est-à-dire la transparence)? Est-il possible de les comprendre immédiatement ou après certaines actions?
  • Les résultats de calcul peuvent-ils être reproduits (sans et après des étapes d'apprentissage supplémentaires)? Si non, comment les utilisateurs seront-ils informés à ce sujet?
  • Dans quel processus les «portes de secours» sont-elles requises ou raisonnables? Dans quelle mesure devraient-ils arrêter les fonctions AI? Comment peuvent-ils être testés?
  • Les données sont-elles utilisées pour l'apprentissage sans biais? Si non, quelles sont les sources de biais? Le niveau de biais peut-il être analysé et quantifié?
  • Dans quelle mesure le biais affecte-t-il les résultats de calcul du système?
  • Comment le niveau de biais peut-il être démontré à l'utilisateur ou à d'autres systèmes utilisant les résultats? sécurité des systèmes d'apprentissage

    La conformité légale et la sécurité des données sont étroitement liées à l'éthique numérique. Regardons quelques questions fondamentales à considérer.

    • Quels sujets de conformité légale doivent être couverts (y compris la confidentialité des données)? Quelles sont les politiques internes de l'entreprise applicables? Comment la conformité peut-elle être surveillée pendant le développement et les opérations?
    • En ce qui concerne l'autoréglementation des fournisseurs d'IA, les plans de développement d'IA sont-ils conformes aux propres normes de l'entreprise? Dans quelles situations?
    • Serait-il possible d'enseigner intentionnellement le système aux mauvaises choses? Comment peut-on découvrir les failles de sécurité (y compris un enseignement incorrect)
    • Comment peut-on éviter et détecter la mise en place de portes dérobées?
    • Comment les directives de dérogation cachées potentielles peuvent-elles être dévoilées? terminé? Que se passe-t-il avec les informations apprises si la vie du système se termine?

    Impact potentiel à long terme

    Selon la loi d'Amara nous avons tendance à surestimer l'effet d'une technologie à court terme l'effet à long terme. »Par conséquent, il est logique d'examiner les questions éthiques potentielles à long terme.

    • Comment une évaluation des risques à long terme peut-elle être effectuée? Quel sera l'impact sur la société, le cas échéant, lorsque les tâches sont automatisées à grande échelle?
    • Si le système est largement utilisé, l'humanité perdrait-elle connaissances ou capacités?
    • Comment détecter les changements de comportement du système d'IA?
    • Comment les résultats de calculs non intentionnels ou irrationnels peuvent-ils être surveillés – et être évités ou filtrés?
    • Comment pouvons-nous détecter si le système commence à fonctionner indépendamment de toute tâche définie par l'homme? Comment réagirons-nous dans un tel cas?

    Le point de contrôle le plus important

    Cette liste de contrôle permet d'identifier les exigences pour un système d'entreprise qui agit de manière durable sur le plan éthique. Le point de contrôle le plus important n'a pas été mentionné: la liste doit être revue et mise à jour régulièrement. Et, à mesure que le niveau d'intelligence artificielle augmente, les éléments de la liste de contrôle doivent devenir plus granulaires.

    Des progrès technologiques doivent être prévus pour éviter que l'IA ne se développe plus vite que la capacité humaine de définir et de mettre en place une base éthique. Nous avons appris que des concepts tels que la manipulation des biais, les portes de secours et les auditeurs IA sont requis. Il y a probablement beaucoup plus d'embûches et de défis qui attendent d'être vus avant que nous puissions ajouter une véritable «conscience éthique» à ce qu'on appelle l'intelligence artificielle.

    Des employés humains hautement qualifiés seront essentiels pendant cette transformation et au-delà. En savoir plus sur Le côté humain de l'apprentissage automatique .

    <! – Commentaires ->