Fermer

août 21, 2024

Les agents IA transformeront les processus métier et amplifieront les risques

Les agents IA transformeront les processus métier et amplifieront les risques



« Pour l’instant, nous construisons des flux de travail en utilisant la génération augmentée par récupération », explique Sunil Dadlani, vice-président exécutif et directeur de l’information et de la transformation numérique de l’entreprise. Cela permet aux requêtes LLM d’être enrichies avec un contexte pertinent.

« Nous proposons l’IA agentique PoCing comme un moyen d’étendre le type de flux de travail qui peuvent être pris en charge de manière plus flexible, tout en étant axée sur les tâches », ajoute-t-il.

L’entreprise explore également la possibilité d’utiliser l’IA agentique dans l’ITSM.

« Nous voyons une formidable opportunité à la fois en tirant parti de la technologie pour améliorer nos processus informatiques internes et en agissant comme un terrain d’essai pour renforcer la confiance dans la technologie, tant pour nous que pour l’entreprise », dit-il.

Pour y parvenir, Atlantic Health utilise sa propre plate-forme d’activation numérique interne et explore LangChain pour orchestrer le flux de données entre les LLM en collaboration avec Amazon Bedrock. Cela pourrait être étendu à la base du cadre d’IA agentique de l’entreprise.

« Nous exploitons également Dialogflow avec la plate-forme Google Cloud et entamons des discussions sur la manière dont nous pourrions exploiter le Microsoft Bot Framework », explique-t-il.

Le coût du progrès

L’IA agentique offre de nombreux avantages potentiels dans le domaine de la santé, mais présente également des risques importants qui doivent être soigneusement gérés. Atlantic Health a déjà un cadre en place pour protéger sa génération AIy compris des pratiques en matière de données, une sécurité robuste, une surveillance humaine et une gouvernance transparente, combinées à une surveillance continue, des tests, le respect des cadres juridiques et des structures de responsabilité. Mais les systèmes d’IA agentique sont conçus pour fonctionner avec un certain niveau d’autonomie, explique-t-il.

« La sécurité des patients est également menacée si l’IA se heurte à des cas complexes ou retarde des interventions critiques », dit-il.

Même les grandes entreprises technologiques sont, pour la plupart, encore loin d’une adoption significative. « Nous pensons que l’IA agentique multimodale est l’avenir », déclare Caiming Xiong, vice-président de la recherche en IA et de l’IA appliquée chez Salesforce.

L’IA multimodale signifie que l’IA qui alimente les agents peut gérer bien plus que du simple texte. Il existe déjà des plates-formes Gen AI capables de gérer des images, de l’audio et même de la vidéo. « Il y a beaucoup d’informations qu’on ne peut pas simplement décrire dans un texte », dit-il.

Mais les systèmes d’IA multiagents en sont encore au stade expérimental ou sont utilisés de manière très limitée. Un cas d’utilisation interne de l’IA agentique chez Salesforce concerne le développement de logiciels. « Nous utilisons notre propre modèle et le cadre agentique que nous avons construit nous-mêmes », explique Xiong. «Je ne pense cependant pas que nous allons remplacer nos développeurs. Vous ne pouvez pas entièrement faire confiance au code développé par l’IA, mais nous allons améliorer la productivité et la qualité, et les assistants de codage agents peuvent aider nos développeurs juniors à devenir plus professionnels.

Il existe également un cadre d’agent capable de rassembler des informations provenant de différentes sources pour répondre aux questions, résoudre les problèmes des clients ou suggérer les prochaines étapes, explique-t-il. Ici, les modèles back-end sont GPT 4 et GPT 3.5 d’OpenAI. Pour maintenir l’IA agentique dans le droit chemin, Salesforce utilise tous les garde-fous déjà en place pour la génération AI.

«Nous analysons chaque question et réponse», explique Xiong. « Nous analysons la toxicité, les biais et recherchons une injection rapide. »

En plus de cela, il existe des contrôles de sécurité et d’accès pour garantir que les agents n’essaient pas d’accéder à des informations qu’ils ne devraient pas.

« Nous avons également mis en place des garde-fous pour garantir que son action est quelque chose qu’il est autorisé à exécuter », dit-il. « Nous avons intégré ces composants dans le cadre de l’agent, pour nous assurer qu’il ne fait rien de mal. »

Cela ne signifie pas pour autant que tout sera parfait, c’est pourquoi une surveillance humaine est intégrée. Un humain peut être invité à confirmer qu’une action particulière doit être exécutée, par exemple.

« Et du côté du développement, nous avons des équipes chargées de procéder à des évaluations avant que quoi que ce soit ne passe en production », dit-il.

Tout nouveau système devra être conforme aux garde-fous construits par Salesforce, confirme Juan Perez, le CIO de l’entreprise.

«Nous avons construit toute une couche de confiance dans nos solutions d’IA générative», explique Perez. « Et nous avons une pratique générale en matière de sécurité et de confidentialité qui guide tout ce que nous faisons. » Il existe également un conseil sur l’IA, ajoute-t-il, composé de personnes de toute l’entreprise du secteur juridique, de la protection de la vie privée, du groupe d’utilisation éthique de l’IA, des spécialistes des données, des technologues et des utilisateurs professionnels.

Parallèlement, il est également possible que les systèmes multi-agents soient en réalité plus sûrs que les modèles d’IA à génération monolithique unique, explique Xiong.

« Si vous n’avez qu’un seul système et qu’il est piraté, ce serait un énorme désastre pour une entreprise », dit-il. « Mais si vous avez une centaine ou un millier d’agents et qu’un agent est piraté, ce n’est pas grave. »

De plus, chaque agent peut être optimisé pour ses tâches spécifiques. Si un LLM est optimisé pour un objectif particulier, les performances peuvent en souffrir dans d’autres domaines, mais avec plusieurs agents, une tâche peut être isolée et améliorée.

Agents en production

La plupart des entreprises qui déploient des agents d’IA ne le font pas dans le cadre d’un processus d’IA agentique complet de bout en bout, explique Craig Le Clair, analyste chez Forrester.

« Je viens de parler à 30 banques et sociétés d’investissement et elles ont toutes dit la même chose : ‘Nous ne sommes pas prêts à confier un processus complet à la génération d’IA.’ » Au lieu de cela, dit-il, les entreprises ajoutent des agents d’IA aux processus de base existants où l’ensemble du processus est sous le contrôle d’un agent de transformation traditionnel. Par exemple, un processus métier peut nécessiter la génération d’un e-mail basé sur certaines informations, et la génération IA peut être utilisée pour créer un message plus personnalisé, d’autres agents IA récupérant d’autres petits éléments.

Le niveau le plus avancé de systèmes fermés et autonomes de bout en bout – l’équivalent commercial d’une voiture autonome – n’est pas encore là, dit Le Clair. Mais certaines entreprises affirment qu’elles s’en rapprochent. Indicium, un cabinet mondial de conseil en données dont le siège est à New York et au Brésil, est une entreprise disposant déjà de systèmes d’IA agentique en production. Ces agents d’IA sont au service à la fois des utilisateurs internes et des clients, explique Daniel Avancini, directeur des données de l’entreprise.

Les agents sont utilisés pour interroger et croiser des données provenant de diverses sources, notamment Moodle, GitHub, Bitbucket, les wikis internes et l’entrepôt de données Snowflake de l’entreprise. Ils utilisent la génération AI pour interpréter des questions complexes et identifier les sources de données les plus pertinentes.

« Par exemple, l’un de nos agents peut extraire des informations de notre wiki interne, les croiser avec les données de nos référentiels de codes, puis les valider par rapport à nos données analytiques pour fournir des réponses complètes aux requêtes commerciales », explique-t-il. « Certains de nos agents les plus avancés peuvent réellement construire des solutions basées sur des processus existants. »

Par exemple, un agent peut créer un graphique acyclique dirigé dans Airflow sur la base d’une description des besoins du pipeline de données, ce qui implique des tâches complexes en plusieurs étapes.

D’autres agents sont encore en phase pilote, dont un capable d’analyser les référentiels de code et de suggérer des optimisations basées sur les meilleures pratiques et les données de performances historiques.

Le principal cadre pour créer ces agents est LangChain, explique Avancini, et

Indicium utilise son composant LangGraph, qui offre un contrôle granulaire sur les processus décisionnels de ses agents, explique-t-il.

« Nous pourrions créer un graphique dans lequel l’agent analyse d’abord la requête de l’utilisateur, puis décide quelles sources de données consulter, exécute les requêtes nécessaires et enfin synthétise les informations en une réponse cohérente », explique-t-il. « À chaque étape, nous pouvons mettre en œuvre des points de décision et des options de repli. »

Pour alimenter ces agents, explique Avancini, les modèles OpenAI et Anthropic sont préférés, mais la stratégie de déploiement est indépendante du cloud. « Nous pouvons déployer nos agents sur AWS, Azure ou GCP, en fonction des exigences spécifiques du projet », explique-t-il. « Nous accédons à ces modèles soit directement via leurs API, soit via des services cloud comme AWS Bedrock ou Azure OpenAI. »

Pour la surveillance et l’observabilité, la société utilise LangSmith de LangChain, qui permet à Indicium de suivre les performances, d’identifier les goulots d’étranglement et d’itérer rapidement.

« Dans certains cas, notamment pour le prototypage rapide ou lorsque nous travaillons avec des acteurs moins techniques, nous utilisons des outils de développement visuel », explique Avancini. « Azure AI Studio, par exemple, nous permet d’assembler visuellement des agents, puis d’exporter les résultats sous forme de code. Cela peut être particulièrement utile lorsque nous explorons de nouvelles architectures d’agents ou démontrons des concepts aux clients.

Pour gérer les besoins en mémoire des systèmes d’agents, Indicium utilise des bases de données vectorielles, telles que Pinecone.

« Ces bases de données nous permettent de stocker et d’interroger efficacement de grandes quantités de données non structurées, ce qui est essentiel pour bon nombre de nos applications d’IA », explique-t-il. « Pour gérer des documents non structurés, nous utilisons des outils comme LlamaParse pour nous aider à extraire des informations significatives à partir d’une variété de formats de documents. »

Indicium a également créé des connecteurs personnalisés pour les plateformes de messagerie populaires, afin que les agents puissent mieux interagir avec les utilisateurs.




Source link