Fermer

novembre 2, 2023

Transparence de l’IA : un guide étape par étape pour votre entreprise


Les petites startups comme les grandes entreprises utilisent désormais IA des systèmes pour analyser les données, personnaliser les stratégies marketing, rationaliser les chaînes d’approvisionnement et automatiser les tâches répétitives.

En 2022, près de 35 % des entreprises ont mis en œuvre la technologie de l’IA, soit une augmentation de 4 % par rapport à 2021. Le taux d’adoption devrait encore augmenter d’ici la fin de 2023.

IBM

Plus les entreprises utiliseront l’IA, plus elle aura d’impact sur la vie quotidienne des gens, s’étendant jusqu’à des décisions critiques, comme les recommandations de traitement ou la sélection des participants aux essais cliniques de médicaments contre le cancer. Cela nécessite une responsabilité accrue et des niveaux plus élevés de transparence technologique. Dans ce guide étape par étape, nous expliquerons les avantages de l’IA transparente, révélerons les obstacles potentiels à la compréhension de sa prise de décision et suggérerons des moyens éprouvés pour améliorer la transparence.

L’IA transparente est une IA explicable

La transparence de l’IA est atteinte lorsque les algorithmes peuvent être communiqués et expliqués. Il ne s’agit pourtant pas de partager des algorithmes en ligne ou de publier des lignes de code. L’objectif est d’expliquer pourquoi une décision spécifique est prise plutôt que de simplement montrer ce qui se passe sous le capot. Lorsqu’une technologie commet une erreur, les entreprises ont besoin de humains pour porter un jugement. Il est donc important de pouvoir saisir le contexte dans lequel le modèle d’IA fonctionne ainsi que les implications possibles des résultats.

Le niveau de transparence doit être positivement corrélé à l’impact de la technologie basée sur l’IA. Plus l’algorithme a d’impact sur la vie des gens, plus il est essentiel que toutes les préoccupations éthiques soient abordées et que les décisions soient expliquées. Par exemple, un algorithme permettant d’envoyer des e-mails personnalisés aux enseignants ne nécessite pas le même niveau d’examen que les messages envoyés aux prestataires de soins de santé (Professionnels de la santé).

Lors du développement d’une nouvelle fonctionnalité pour notre plateforme avancée d’expérience de contenu afin de permettre aux spécialistes du marketing pharmaceutique d’évaluer le contenu adapté aux professionnels de la santé, nous avons parfaitement compris l’impact significatif qu’aurait notre modèle d’IA. Il était donc essentiel pour notre entreprise d’adhérer aux normes de transparence les plus élevées en matière d’IA.

Plus précisément, nous avons veillé à ce que les utilisateurs puissent accéder à la version actuelle MLR règles utilisées par les algorithmes pour prédire l’approbation du contenu. Notre équipe a fait en sorte que notre moteur affiche l’ensemble des normes ainsi que les commentaires correspondants pour les éléments de contenu qui ne sont pas susceptibles d’être approuvés. Cela a non seulement augmenté les chances d’approbation initiale du contenu, mais a également renforcé la confiance des utilisateurs, car ils ont vu les critères spécifiques pour lesquels le contenu était signalé pour un examen plus approfondi. Ce type de transparence nous a permis d’inciter les sociétés pharmaceutiques à faire confiance à notre solution sans craindre paralysant l’échec d’une étape aussi importante du processus de commercialisation que l’examen du MLR.

Principaux avantages de l’IA transparente pour vos opérations commerciales

Pourquoi une entreprise voudrait-elle que ses systèmes d’IA critiques soient transparents ? Que vous construisiez votre produit basé sur l’IA ou que vous utilisiez des solutions prêtes à l’emploi, il est essentiel que vous compreniez ce qui se passe au sein de l’outil. boîte noire pour quelques raisons impérieuses. Avoir une explication significative de la manière dont la solution aboutit à une décision confiance. C’est en fait l’une des principales raisons pour lesquelles nous révélons la source de données utilisée pour former notre produit. Lorsque les clients comprennent que la prise de décision en matière d’IA repose sur leurs ensembles de données uniques, ils ont tendance à accorder davantage de confiance à certaines solutions.

Les modèles basés sur l’IA, tout comme les humains qui les développent, sont sujets aux biais. Ne pas comprendre les algorithmes sous-jacents peut faire en sorte que ces préjugés passent inaperçus, menacent la santé de l’entreprise, compromettent la sécurité des clients ou favorisent des comportements contraires à l’éthique. Pour une entreprise, cela peut avoir des conséquences désastreuses, pouvant entraîner des pertes de plusieurs millions de dollars et, surtout, de graves dommages à sa réputation. Faire face à l’abus de confiance des clients est un processus ardu, qui s’étend souvent sur plusieurs années.

Certains secteurs fortement réglementés, comme l’industrie pharmaceutique et les sciences de la vie, considèrent la transparence des modèles comme une étape cruciale pour obtenir l’approbation légale avant qu’une solution puisse être déployée. Garantir des systèmes d’IA transparents aide les entreprises à respecter une série de lois et de réglementations de conformité, telles que le règlement général sur la protection des données (RGPD) ou la loi sur la responsabilité algorithmique (AAA). Cela leur permet non seulement de minimiser les risques de conséquences juridiques et financières associées à une IA biaisée, mais montre également l’engagement d’une entreprise à adhérer à des pratiques éthiques et socialement responsables.

Principaux défis liés à la compréhension de la prise de décision en matière d’IA

La première étape vers une plus grande transparence en matière d’IA consiste à identifier les principaux obstacles à la compréhension des décisions en matière d’IA. Sans plus tarder, abordons-en quelques-uns.

Des algorithmes inexplicables

Si certains outils sont relativement faciles à interpréter, comme les algorithmes de planification ou le raisonnement sémantique, il existe toute une gamme de technologies basées sur les données de l’IA, pour lesquelles expliquer un lien entre l’entrée et la sortie est considérablement plus difficile. Modèles avancés, tels que l’apprentissage automatique (ML), sont souvent décrits comme boîtes noires avec des milliards de paramètres différents, ce qui rend presque impossible de déterminer comment une entrée particulière a conduit à un résultat de sortie spécifique.

Mauvaise visibilité sur les données d’entraînement

Les outils d’IA peuvent hériter des biais des données utilisées pour les entraîner. Si les données d’entraînement ne représentent pas des données du monde réel, cela entachera la précision du modèle d’IA. À la lumière de cela, les entreprises doivent se poser les questions importantes suivantes :

  • Quelle est la source des données de formation ?
  • Quelles sont les fonctionnalités sur lesquelles le modèle a été formé ?
  • Quelles méthodes ont été utilisées pour rectifier les données ?
  • Pouvons-nous avoir accès à ces données ?

Sans réponses claires à ces questions, les entreprises ont une visibilité limitée sur les processus du modèle interne et ne peuvent pas avoir pleinement confiance dans sa sécurité.

Manque de compréhension des méthodes de sélection des données

Si une entreprise avait accès à l’ensemble des données, cela signifierait-il que le modèle est suffisamment transparent pour être utilisé ? Pas toujours. Même lorsque les entreprises ont accès à des gigaoctets ou des téraoctets de données de formation, cela ne signifie pas nécessairement qu’elles comprennent quels aspects des données ont été utilisés pour créer un modèle donné. Et si les data scientists décidaient de mettre en œuvre des approches d’augmentation des données et d’ajouter des données, qui n’étaient pas incluses dans l’ensemble de données de formation ? Que se passe-t-il si les ingénieurs ML sélectionnent des données ou des fonctionnalités particulières dans l’ensemble de données ? Pour garantir des niveaux de transparence plus élevés, il est important de pouvoir utiliser les mêmes méthodes de sélection sur les données de formation pour comprendre quelles données ont été exclues et quelles données ont été incluses.

Des moyens efficaces pour améliorer la transparence de l’IA

En général, il existe trois manières courantes d’accroître la transparence de votre solution d’IA : garantir l’exactitude technique du modèle, vérifier les biais des données d’entraînement et utiliser la technologie pour valider les algorithmes d’IA.

Garantir l’exactitude technique

Pour s’assurer que l’outil d’IA est techniquement correct, les entreprises doivent effectuer une série de tests appropriés et fournir une documentation complète, comprenant une description détaillée de l’architecture et des mesures de performances. Les développeurs de logiciels qui ont construit le système devraient être en mesure d’expliquer comment ils ont résolu le problème, pourquoi une technologie spécifique a été sélectionnée et quelles données ont été utilisées. Les membres de l’équipe doivent auditer ou reproduire le processus de développement, si nécessaire.

Le ATARC Groupe de travail Éthique de l’IA et IA responsable a suggéré le document qui permet aux développeurs de modèles d’évaluer leurs algorithmes sur la base de cinq facteurs de transparence, tels que l’explicabilité des algorithmes, la réduction du biais des ensembles de données, les méthodes de sélection des données, l’identification des sources de données et la méthode de versionnage du modèle. Les ingénieurs peuvent attribuer des points pour chacun de ces facteurs. Par exemple, si un système obtient un 1 pour l’explicabilité algorithmique, cela signifie qu’un modèle est un boîte noirealors qu’un 5 l’évaluation de la transparence des données de formation signifie qu’un accès complet aux ensembles de données est fourni.

Cette approche n’est qu’un exemple parmi d’autres de modèles possibles d’évaluation de la transparence. Que vous adoptiez ou non cette méthode spécifique, il est essentiel d’intégrer cette auto-évaluation à la version du modèle. Pourtant, malgré des avantages évidents, comme la responsabilité des développeurs dans leurs choix dans la conception du modèle, cette approche n’a pas échappé à certains inconvénients. L’auto-évaluation peut introduire de la subjectivité et de la variabilité dans le processus d’examen, car différents ingénieurs peuvent interpréter les facteurs de transparence de manière différente.

Vérification des biais dans les données

Méfiez-vous des biais cachés dans les données de formation, car ils peuvent avoir un impact direct sur le résultat du système. Cela étant dit, il est essentiel de vérifier si certains groupes sont sous-représentés et vous devez prendre des mesures correctives pour y remédier. Supposons que votre plateforme d’expérience de contenu reçoive des données historiques comprenant principalement les préférences des jeunes prestataires de soins de santé masculins. En conséquence, le modèle d’IA donné peut avoir du mal à recommander un contenu pertinent aux femmes ou aux professionnels plus âgés.

Les modèles d’IA ne peuvent pas identifier les biais dans les données de formation, c’est pourquoi vous devrez vous fier à vos employés qui comprennent le contexte dans lequel ces données ont été collectées. Par conséquent, l’atténuation des biais peut prendre du temps et nécessiter un examen minutieux continu.

Utiliser la technologie pour valider le modèle

Les algorithmes avancés d’IA doivent être validés pour permettre aux entreprises de comprendre ce qui se passe à l’intérieur des modèles. Aujourd’hui, il existe une gamme d’outils disponibles pour aider les entreprises à examiner de plus près l’intérieur de l’IA. boîte noire» les aidant à détecter les biais dans les données de formation et à expliquer la prise de décision du modèle aux clients et aux employés. Le principal inconvénient de ces solutions est toutefois qu’elles ne sont peut-être pas universellement applicables à tous les modèles d’IA.

Bien que chacune de ces méthodes contribue à la transparence de l’IA, il vaut la peine d’envisager leur combinaison pour une solution plus globale et plus complète. En combinant ces approches, les entreprises peuvent découvrir des marges d’amélioration qui pourraient autrement rester cachées lorsqu’elles les utilisent de manière isolée.

Vers plus de transparence

Les entreprises ne peuvent faire confiance à aucune technologie ou à une source tierce sans une compréhension complète de son fonctionnement interne. L’une des raisons pour lesquelles ils pourraient craindre les modèles d’IA est qu’ils peuvent être incroyablement difficiles à expliquer. Si une entreprise ne sait pas si les données de formation ont été correctement nettoyées ou si les biais ont été vérifiés, elle peut présumer que les résultats du modèle pourraient également être faussés. Dès lors, une question de responsabilité en matière d’IA se pose naturellement. Les entreprises utilisant des systèmes d’IA doivent garder à l’esprit les aspects éthiques, juridiques et financiers de leurs opérations pour s’assurer non seulement d’exploiter le potentiel de l’IA, mais également de se prémunir contre ses ramifications potentielles.




Source link

novembre 2, 2023