Les agents d’IA transformeront les processus et résoudront les risques

« Pour l’instant, nous construisons des flux de travail en utilisant la génération de récupération augmentée », déclare Sunil Dadlani, vice-président exécutif et directeur de l’information et de la transformation numérique de l’entreprise. Cela permet aux requêtes LLM d’être enrichies avec un contexte pertinent.
« Nous utilisons l’IA agentique PoCing comme moyen d’élargir le type de flux de travail pouvant être pris en charge de manière plus flexible, mais axée sur les tâches », ajoute-t-il.
L’entreprise explore également la possibilité d’utiliser l’IA agentique dans l’ITSM.
« Nous voyons une grande opportunité à la fois dans l’exploitation de la technologie pour améliorer nos processus informatiques internes et dans le fait d’agir comme un terrain d’essai pour renforcer la confiance dans la technologie, tant pour nous-mêmes que pour l’entreprise. »déclare-t-il.
Pour ce faire, Atlantic Health utilise sa propre plate-forme d’activation numérique interne et explore LangChain pour orchestrer le flux de données entre les LLM avec Amazon Bedrock. Cela pourrait être étendu pour devenir la base du cadre d’IA agentique de l’entreprise.
« Nous exploitons également Dialogflow avec la plate-forme Google Cloud et entamons des discussions sur la manière dont nous pourrions exploiter le Microsoft Bot Framework », explique-t-il.
Le coût du progrès
L’IA génétique offre de nombreux avantages potentiels dans le domaine des soins de santé, mais présente également des risques importants qui doivent être soigneusement gérés. Atlantic Health dispose déjà d’un cadre pour sécurisez votre IA agentiquequi comprend des pratiques en matière de données, une sécurité robuste, une surveillance humaine et une gouvernance transparente, combinées à une surveillance continue, des tests, le respect des cadres juridiques et des structures de responsabilité. Mais les systèmes d’IA agentique sont conçus pour fonctionner avec un certain niveau d’autonomie, explique-t-il.
« La sécurité des patients est également menacée si l’IA peine à gérer des cas complexes ou retarde des interventions critiques », dit-il.
Même les grandes entreprises technologiques sont, pour la plupart, encore loin d’une adoption significative. « Nous pensons que l’IA agentique multimodale est l’avenir » déclare Caiming Xiong, vice-président de la recherche sur l’IA et de l’IA appliquée chez Salesforce.
L’IA multimodale signifie que l’IA des agents peut gérer bien plus que du simple texte. Il existe déjà des plateformes d’IA générative capables de gérer des images, de l’audio et même de la vidéo. « Il existe de nombreuses informations qui ne peuvent être décrites uniquement par un texte », dit-il.
Mais les systèmes d’IA multi-agents sont encore en phase expérimentale ou sont utilisés de manière très limitée.. Un cas d’utilisation interne de l’IA agentique chez Salesforce est le développement de logiciel. «Nous utilisons notre propre modèle et notre propre cadre que nous avons construits nous-mêmes», explique Xiong. « Mais je ne pense pas que nous allons remplacer nos développeurs. Le code développé par l’IA n’est pas totalement fiable, mais nous allons améliorer la productivité et la qualité, et les assistants de codage agent peuvent aider nos développeurs juniors à être plus professionnels.
Il existe également un cadre d’agent qui peut rassembler des informations provenant de différentes sources pour répondre aux questions, résoudre les problèmes des clients ou suggérer les prochaines étapes, explique-t-il. Dans ce cas, les modèles back-end Il s’agit de GPT 4 et GPT 3.5 d’OpenAI. Pour maintenir l’IA agentique sur la bonne voie, Salesforce utilise toutes les barrières dont elle dispose déjà par rapport à l’IA générique.
« Nous avons examiné toutes les questions et réponses », explique Xiong. « On analyse la toxicité, les biais, et on recherche l’injection rapide. »
De plus, il existe des contrôles de sécurité et d’accès pour garantir que les agents n’essaient pas d’accéder à des informations qu’ils ne devraient pas.
« Nous avons également des contrôles pour nous assurer que votre action est quelque chose que vous êtes autorisé à faire », dit-il. « Nous avons intégré ces composants dans la structure de l’agent, pour nous assurer qu’il ne fait rien de mal. »
Mais cela ne veut pas dire que tout sera parfait, il y a donc une surveillance humaine intégrée. Par exemple, on peut demander à un humain de confirmer qu’une certaine action doit être exécutée.
« Et du côté du développement, nous avons des équipes qui effectuent des évaluations avant que quoi que ce soit ne passe en production », dit-il.
Tout nouveau système devra respecter les garde-fous construits par Salesforce, confirme Juan Pérez, le CIO de l’entreprise.
«Nous construisons toute une couche de confiance dans nos solutions d’IA générative», déclare Pérez. « Et nous avons une pratique générale de sécurité et une pratique de confidentialité qui guident tout ce que nous faisons. » Il existe également un conseil sur l’IA, ajoute-t-il, composé de personnes de toute l’entreprise du groupe juridique, de la confidentialité, de l’utilisation éthique de l’IA, des spécialistes des données, des technologues et des utilisateurs professionnels.
Parallèlement, il est également possible que les systèmes multi-agents soient plus sûrs que les modèles d’IA génériques monolithiques, explique Xiong.
« Si vous n’avez qu’un seul système et qu’il est piraté, ce serait un énorme désastre pour une entreprise » États. « Mais si vous avez une centaine ou un millier d’agents et que l’un d’entre eux est piraté, rien ne se passe. »
De plus, chaque agent peut être optimisé pour ses tâches spécifiques. Si un LLM est optimisé pour un objectif spécifique, les performances peuvent en souffrir dans d’autres domaines, mais avec plusieurs agents, une tâche peut être isolée et améliorée.
Agents en production
La plupart des entreprises qui déploient des agents d’IA ne le font pas dans le cadre d’un processus d’IA agentique complet de bout en bout, déclare Craig Le Clair, analyste chez Forrester.
« Je viens de parler à 30 banques et sociétés d’investissement et elles ont toutes dit la même chose : ‘Nous ne sommes pas prêts à confier tout un processus à l’IA générative.' » Au lieu de cela, dit-il, ilLes entreprises ajoutent des agents d’IA aux processus de base existants, où l’ensemble du processus est sous le contrôle d’un agent de processus traditionnel. Par exemple, un processus métier peut nécessiter la génération d’un e-mail basé sur certaines informations, et l’IA générative peut être utilisée pour créer un message plus personnalisé, d’autres agents IA récupérant d’autres petits éléments.
Le niveau le plus avancé de systèmes autonomes fermés de bout en bout -l’équivalent professionnel d’une voiture autonome- Il n’est pas encore arrivé, dit Le Clair. Mais certaines entreprises affirment s’en rapprocher. Indicium, un cabinet mondial de conseil en données dont le siège est à New York et au Brésil, est une entreprise qui dispose déjà de systèmes d’IA agentique en production. Ces agents IA servent à la fois les utilisateurs internes et les clients, explique Daniel Avancini, directeur des données de l’entreprise.
Les agents sont utilisés pour interroger et croiser des données provenant de diverses sources, telles que Moodle, GitHub, Bitbucket, les wikis internes et l’entrepôt de données Snowflake de l’entreprise. Ils utilisent l’IA générative pour interpréter des questions complexes et identifier les sources de données les plus pertinentes.
« Par exemple, l’un de nos agents peut extraire des informations de notre wiki interne, les croiser avec les données de nos référentiels de codes, puis les valider par rapport à nos données analytiques pour fournir des réponses complètes aux requêtes commerciales », explique-t-il. « Certains de nos agents les plus avancés peuvent réellement créer des solutions basées sur des processus existants. »
Par exemple, un agent peut créer un graphique acyclique dirigé dans Airflow à partir d’une description des besoins du pipeline de données, ce qui implique des tâches complexes en plusieurs étapes.
D’autres agents sont encore en phase pilote, dont un capable d’analyser les référentiels de code et de suggérer des optimisations basées sur les meilleures pratiques et les données de performances historiques.
Le principal framework pour créer ces agents est LangChain, explique Avancini, et Indicium utilise son composant LangGraph, qui offre un contrôle granulaire sur les processus de prise de décision de ses agents.
« Nous pouvons créer un graphique dans lequel l’agent analyse d’abord la requête de l’utilisateur, puis décide quelles sources de données interroger, exécute les requêtes nécessaires et enfin synthétise les informations en une réponse cohérente », explique-t-il. « À chaque étape, nous pouvons mettre en œuvre des points de décision et des options alternatives. »
Pour alimenter ces agents, explique Avancini, les modèles OpenAI et Anthropic sont préférés, mais la stratégie de déploiement est indépendante du cloud. « Nous pouvons déployer nos agents sur AWS, Azure ou GCP, en fonction des exigences spécifiques du projet », explique-t-il. « Nous accédons à ces modèles directement via leurs API ou via des services cloud comme AWS Bedrock ou Azure OpenAI. »
Pour la surveillance et l’observabilité, la société utilise LangSmith de LangChain, qui permet à Indicium de suivre les performances, d’identifier les goulots d’étranglement et d’itérer rapidement.
« Dans certains cas, notamment pour le prototypage rapide ou lorsque nous travaillons avec des acteurs moins techniques, nous utilisons des outils de développement visuel », explique Avancini. « Azure AI Studio, par exemple, nous permet d’assembler visuellement des agents puis d’exporter les résultats sous forme de code. Cela peut être particulièrement utile lorsque nous explorons de nouvelles architectures d’agents ou démontrons des concepts aux clients.
Pour gérer les besoins en mémoire des systèmes d’agents, Indicium utilise des bases de données vectorielles, telles que Pinecone.
« Ces bases de données nous permettent de stocker et d’interroger efficacement de grandes quantités de données non structurées, ce qui est essentiel pour bon nombre de nos applications d’IA », explique-t-il. « Pour gérer des documents non structurés, nous utilisons des outils comme LlamaParse pour nous aider à extraire des informations significatives à partir d’une variété de formats de documents. »
Indicium a également créé des connecteurs personnalisés pour les plateformes de messagerie populaires, afin que les agents puissent mieux interagir avec les utilisateurs.
Source link