Cette année, Air Canada a perdu un procès contre un client qui a été induit en erreur par un chatbot IA à acheter des billets d’avion au plein tarif, étant assurés qu’ils seraient ensuite remboursés dans le cadre de la politique de deuil de l’entreprise. La compagnie aérienne a tenté de prétendre que le robot était « responsable de ses propres actions ». Cette argumentation a été rejetée par le tribunal et l’entreprise a non seulement dû payer une indemnisation, mais elle a également été critiquée publiquement pour avoir tenté de se distancier de la situation. Il est clair que les entreprises sont responsables des modèles d’IA, même lorsqu’elles commettent des erreurs indépendantes de notre volonté.
Le monde en évolution rapide de IAet en particulier l’IA générative, est considérée avec un mélange de crainte et d’appréhension par les entreprises. Considérée comme une arme à double tranchant, l’IA a été considérée comme un catalyseur ayant le pouvoir d’accélérer la productivité, vous permettant de faire bien plus avec moins ; mais avec des problèmes qui peuvent conduire à des problèmes allant du mécontentement des clients aux poursuites judiciaires.
C’est ce que l’on appelle communément les « hallucinations de l’IA », ou lorsqu’un modèle d’IA fournit des réponses incorrectes, non pertinentes ou absurdes.
« Heureusement, ce n’est pas un problème très répandu. Cela ne se produit qu’entre 2 et peut-être 10 % du temps dans le haut de gamme. Mais cela peut quand même être très dangereux dans un entreprise environnement. Imaginez demander à un système d’IA de diagnostiquer un patient ou de faire atterrir un avion », explique Amr Awadallah, un expert en IA qui s’apprête à donner une conférence à VDS2024 sur Comment la génération IA transforme les entreprises et évite les pièges.
Mais la plupart des experts en IA n’aiment pas ce terme. La terminologie, et ce qu’elle cache, c’est-à-dire notre incompréhension de la façon dont ces événements se produisent, peut potentiellement conduire à des pièges avec des effets d’entraînement dans le futur.
En tant qu’ancien vice-président de l’ingénierie de l’intelligence produit chez Yahoo! et vice-président des relations avec les développeurs pour Google Cloud, Awadallah a vu la technologie évoluer tout au long de sa carrière et a depuis fondé Vectaraune entreprise axée sur l’utilisation des technologies d’IA et de réseaux neuronaux pour le traitement du langage naturel afin d’aider les entreprises à tirer parti des avantages que la pertinence de la recherche peut apporter.
Nous avons discuté avec lui pour comprendre pourquoi ce terme est si controversé, ce que les entreprises doivent comprendre à propos des « hallucinations de l’IA » et si elles peuvent ou non être résolues.
Pourquoi les modèles d’IA n’hallucinent pas
Utiliser le terme hallucination implique que, lorsqu’un modèle d’IA fournit des informations erronées, il voit ou ressent quelque chose qui n’existe pas. Mais ce n’est pas ce qui se passe derrière les lignes de code qui mettent ces modèles en œuvre.
Il est très courant que nous, les humains, tombions dans ce type de piège. L’anthropomorphisme, ou la tendance innée à attribuer des traits, des émotions ou des intentions humaines à des entités non humaines, est un mécanisme que nous utilisons pour lutter contre l’inconnu, en le considérant à travers une lentille humaine. Les Grecs de l’Antiquité l’utilisaient pour attribuer des caractéristiques humaines aux divinités ; aujourd’hui, nous sommes plus susceptibles de l’utiliser pour interpréter les actions de nos animaux de compagnie.
Il existe un risque particulier que nous tombions dans ce piège avec l’IA, car il s’agit d’une technologie qui est devenue si omniprésente dans notre société en très peu de temps, mais très peu de gens comprennent réellement de quoi il s’agit et comment elle fonctionne. Pour que notre esprit comprenne un sujet aussi complexe, nous utilisons des raccourcis.
« Je pense que les médias ont joué un grand rôle dans cela parce que c’est un terme attrayant qui crée le buzz. Alors ils s’y sont accrochés et c’est devenu la manière standard dont nous l’appelons maintenant », dit Awadallah.
Mais tout comme supposer que remuer la queue dans le monde animal est synonyme de convivialité, une mauvaise interprétation des résultats fournis par une IA peut nous conduire sur la mauvaise voie.
«Cela attribue vraiment plus à l’IA qu’elle ne l’est en réalité. Il ne s’agit pas de penser de la même manière que nous. Tout ce qu’il fait, c’est essayer de prédire quel sera le prochain mot en fonction de tous les mots précédents qui ont été prononcés », explique Awadallah.
S’il devait donner un nom à cet événement, il l’appellerait une « confabulation ». Les confabulations consistent essentiellement en l’ajout de mots ou de phrases qui comblent les blancs de manière à rendre l’information crédible, même si elle est incorrecte.
« [AI models are] fortement incité à répondre à n’importe quelle question. Il ne veut pas vous dire : « Je ne sais pas » », explique Awadallah.
Le danger ici est que si certaines confabulations sont faciles à détecter car elles frisent l’absurde, la plupart du temps, une IA présentera des informations très crédibles. Et plus nous commençons à compter sur l’IA pour nous aider à accélérer la productivité, plus nous pouvons prendre leurs réponses apparemment crédibles au pied de la lettre. Cela signifie que les entreprises doivent être vigilantes et inclure une surveillance humaine pour chaque tâche accomplie par une IA, en y consacrant plus de temps et de ressources, et non moins.
Les réponses fournies par un modèle d’IA sont aussi bonnes que les données auxquelles il a accès et la portée de votre invite. Étant donné que l’IA s’appuie sur des modèles au sein de ses données d’entraînement, plutôt que sur un raisonnement, ses réponses peuvent être faillibles en fonction des données d’entraînement dont elle dispose (que ces informations soient incorrectes ou qu’elle dispose de peu de données sur cette requête particulière) ou cela peut dépendre du la nature et le contexte de votre requête ou tâche. Par exemple, le contexte culturel peut donner lieu à des perspectives et des réponses différentes à la même requête.
Dans le cas de systèmes de connaissances à domaine restreint ou de modèles d’IA internes conçus pour récupérer des informations dans un ensemble spécifique de données, comme le système interne d’une entreprise, une IA ne disposera que d’un espace pour une certaine quantité de mémoire. Bien qu’il s’agisse d’une quantité de mémoire beaucoup plus importante que celle qu’un humain peut conserver, elle n’est pas illimitée. Lorsque vous lui poserez des questions dépassant le cadre de sa mémoire, il sera toujours incité à répondre en prédisant quels pourraient être les prochains mots.
La désinformation sur l’IA peut-elle être résolue ?
On a beaucoup parlé de la possibilité ou non de résoudre les « confabulations ».
Awadallah et son équipe de Vectara développent une méthode pour lutter contre les confabulations dans les systèmes de connaissances à domaine restreint. Pour ce faire, ils créent un modèle d’IA avec pour tâche spécifique de vérifier les résultats d’autres modèles d’IA. C’est ce qu’on appelle la génération augmentée de récupération (RAG).
Bien sûr, admet Awadallah, tout comme avec les vérificateurs de faits humains, il y a toujours la possibilité que quelque chose échappe à un vérificateur de faits IA, c’est ce qu’on appelle un faux négatif.
Pour les modèles d’IA à domaine ouvert, comme ChatGPT, qui sont conçus pour récupérer des informations sur n’importe quel sujet sur le vaste Web, gérer les confabulations est un peu plus délicat. Certains chercheurs ont récemment publié un article prometteur sur utilisation de « l’entropie sémantique » pour détecter la désinformation de l’IA. Cette méthode consiste à poser plusieurs fois la même question à une IA et à attribuer un score en fonction de la différence entre les réponses.
Alors que nous nous rapprochons de plus en plus de l’élimination des confabulations de l’IA, une question intéressante à considérer est la suivante : voulons-nous réellement que l’IA soit factuelle et correcte à 100 % du temps ? Limiter leurs réponses pourrait-il également limiter notre capacité à les utiliser pour des tâches créatives ?
Rejoignez Amr Awadallah à la septième édition de VDS pour en savoir plus sur la manière dont les entreprises peuvent exploiter la puissance de l’IA générative, tout en évitant les risques, à VDS2024 aura lieu les 23 et 24 octobre à Valence.
Source link