Les responsables informatiques font preuve de petite taille pour une IA spécialement conçue

Lors de l’adoption de l’IA, la meilleure solution consiste parfois à adopter une approche modeste. C’est ce qu’un certain nombre de responsables informatiques ont appris récemment, alors que le marché de l’IA et les stratégies d’IA des entreprises continuent d’évoluer.
Au cours de la nouvelle révolution de l’IA de l’année et demie écoulée, de nombreuses entreprises ont expérimenté et développé des solutions avec des modèles de langage étendus (LLM) tels que GPT-4 via Azure OpenAI, tandis que peser les mérites des assistants numériques comme Microsoft Copilot. Mais les petits modèles de langage (SLM) spécialement conçus et d’autres technologies d’IA ont également leur place, constatent les responsables informatiques, avec des avantages tels que moins d’hallucinations et un coût de déploiement inférieur.
Microsoft et Apple voient le potentiel des petites IA, avec Microsoft déployer son Phi-3 des modèles de petits langages en avril, et Apple a lancé huit modèles de petits langages, destinés à être utilisés sur des appareils portables, le même mois.
SLM et autres technologies d’IA non-LLM ont de nombreuses applications, en particulier pour les organisations ayant des besoins spécialisés, explique Dave Bullock, CTO chez UJET, un fournisseur de centre de contact en tant que service qui expérimente des modèles d’IA à petit langage. Les SLM peuvent être formés pour remplir une fonction spécifique avec un ensemble de données limité, donnant ainsi aux organisations un contrôle total sur la manière dont les données sont utilisées.
Faibles barrières à l’entrée
Mieux encore, le coût pour essayer un petit modèle de langage d’IA est proche de zéro, par opposition aux coûts de licence mensuels pour un LLM ou aux millions de dollars dépensés pour créer le vôtre, explique Bullock.
Visage câlin propose des dizaines d’IA open source et gratuites que les entreprises peuvent adapter à leurs besoins spécifiques, en utilisant les GPU dont elles disposent déjà ou en louant la puissance GPU auprès d’un fournisseur. Bien que l’expertise en IA dans les LLM soit encore rare, la plupart des ingénieurs logiciels peuvent utiliser des ressources facilement disponibles pour former ou régler leurs propres petits modèles de langage, explique-t-il.
« Vous disposez peut-être déjà d’un GPU dans votre machine de jeu vidéo, ou vous souhaitez simplement faire tourner certains GPU dans le cloud et les laisser suffisamment longtemps pour s’entraîner », dit-il. « Cela pourrait être une barrière à l’entrée très, très faible. »
Insight Enterprises, un intégrateur de solutions technologiques, constate qu’environ 90 % de ses clients utilisent des LLM pour leurs projets d’IA, mais une tendance vers des modèles plus petits et plus spécialisés se dessine, déclare Carm Taglienti, CTO et directeur des données de l’entreprise.
Taglienti recommande les LLM aux clients qui souhaitent expérimenter l’IA, mais dans certains cas, il recommande des outils d’IA classiques pour des tâches spécifiques. Les LLM sont utiles pour des tâches telles que la synthèse de documents ou la création de supports marketing, mais sont souvent plus difficiles et plus coûteux à adapter à des cas d’utilisation de niche que les petites IA, dit-il.
« Si vous utilisez l’IA pour un ensemble de tâches très ciblées, vous pouvez tester pour vous assurer que ces tâches sont exécutées correctement, et vous ne vous inquiétez pas trop du fait qu’elle ne peut pas faire quelque chose comme créer un recette de soufflé », dit-il.
Parfois, le ML suffit
Une petite approche d’IA a fonctionné pour Dayforce, un éditeur de logiciels de gestion du capital humain, déclare David Lloyd, responsable des données et de l’IA de l’entreprise.
Dayforce utilise l’IA et les technologies associées pour plusieurs fonctions, l’apprentissage automatique aidant à mettre en relation les employés des entreprises clientes et les coachs de carrière. Dayforce utilise également l’apprentissage automatique traditionnel pour identifier les employés des entreprises clientes qui envisagent de quitter leur emploi, afin que les clients puissent intervenir pour les conserver.
Non seulement les modèles plus petits sont plus faciles à former, mais ils donnent également à Dayforce un niveau élevé de contrôle sur les données qu’ils utilisent, un besoin essentiel lorsqu’il s’agit de traiter les informations sur les employés, explique Lloyd.
Par exemple, lorsqu’ils examinent le risque qu’un employé démissionne, les outils d’apprentissage automatique développés par Dayforce examinent des facteurs tels que la performance de l’employé au fil du temps et le nombre d’augmentations de performance reçues.
« Lorsque l’on modélise cela sur l’ensemble de votre base d’employés, en examinant les mouvements des employés, cela ne nécessite pas d’IA générative. En fait, celle-ci échouerait lamentablement », dit-il. « À ce stade, vous regardez vraiment des choses comme un réseau neuronal récurrent, où vous regardez l’histoire au fil du temps. »
Une IA générative peut être utile pour la sélection des CV, mais une fois le processus de recrutement lancé, un modèle d’apprentissage automatique traditionnel fonctionne mieux pour aider les recruteurs, ajoute Lloyd. Dayforce utilise un processus de ML renforcé par l’humain pour aider les recruteurs.
« Ce concept selon lequel plus c’est gros, mieux c’est est, à mon avis, faux », dit-il. « Lorsque vous regardez les modèles plus petits du côté génératif, vous avez de très bons modèles spécialisés. Vous pouvez en examiner certains qui sont bons pour la traduction linguistique, d’autres qui sont très forts en mathématiques, et le nôtre, qui est très fort en gestion du capital humain.
Construire l’IA pour vos besoins
HomeZada, fournisseur d’outils numériques de gestion de la maison, est un autre converti à une approche spécialement conçue de l’IA. La société a obtenu une licence pour un LLM, mais depuis juin, elle a également créé sept fonctions d’IA propriétaires pour aider les propriétaires à gérer les coûts et autres problèmes associés à leurs propriétés.
La fonctionnalité Homeowner AI de HomeZada est intégrée à la plus grande plate-forme numérique de gestion de la maison, explique John Bodrozic, co-fondateur et CIO de l’entreprise. AccueilZada utilise génération augmentée de récupération (RAG) aux côtés de données externes, propriétaires et utilisateur pour améliorer l’exactitude et la fiabilité de son LLM sous licence.
L’utilisation d’un LLM sans aucune modification donne des réponses génériques sur la valeur d’une maison ou le coût d’un projet de rénovation de salle de bain, explique Bodrozic. « En soi, il n’offre pas une personnalisation approfondie pour chaque propriétaire unique sur la plate-forme, il n’est donc pas suffisamment spécifique pour apporter une réelle valeur », dit-il. « Les consommateurs exigent une expertise spécifique qui tient compte de leur domicile et de leur emplacement. »
Par exemple, Homeowner AI crée des budgets pour les projets de rénovation domiciliaire, en fonction de l’emplacement, des matériaux utilisés et d’autres facteurs. L’outil d’IA permet aux propriétaires de documenter l’inventaire de leur maison et de leurs biens personnels à l’aide de photographies, et il peut diagnostiquer les problèmes de réparation et d’amélioration de l’habitat en temps réel. L’IA des propriétaires peut également envoyer aux utilisateurs des alertes météorologiques en fonction de leur emplacement et évaluer les risques de catastrophe climatique.
Bodrozic considère RAG comme un juste milieu entre la construction ou la formation d’une petite IA et l’utilisation d’un LLM seul. Un LLM peut fournir une réponse à n’importe laquelle d’un million de demandes en quelques millisecondes, mais l’IA du propriétaire améliorée par RAG n’a pas besoin d’être aussi rapide, ni d’être un expert en tout.
« Nous ne sommes pas assez grands et nous n’avons pas non plus besoin de créer notre propre outil d’IA pour un propriétaire, car il n’est pas nécessaire que ce soit en temps réel comme ça », dit-il. « L’utilisateur a-t-il besoin de savoir combien va coûter la rénovation de ma salle de bain en millisecondes ? Non, ils peuvent attendre 30 secondes.
Le bon outil pour le travail
Les DSI et les responsables des données des entreprises qui tentent de décider de la taille de l’IA dont elles ont besoin devraient se poser plusieurs questions avant de se lancer, explique Bodrozic. Le temps de réponse, le coût, la confidentialité des données et les besoins spécialisés sont quelques considérations.
« Vous devez vraiment comprendre le contexte du domaine pour savoir qui va utiliser votre IA, où allez-vous utiliser l’IA », ajoute-t-il. « Existe-t-il un ensemble unique de données par rapport à un ensemble massif de données ? »
Il suggère aux DSI et CDO de mener de courtes expériences avec une IA pour voir si elle répond à leurs besoins. Trop souvent, les entreprises lancent un projet d’IA sur six mois et consacrent beaucoup de temps et de ressources à quelque chose qui ne fonctionne finalement pas.
« Pour commencer, vous devez effectuer un test pendant une journée », explique-t-il. « Au lieu d’avoir un comité de 50 personnes qui essaient toutes d’avoir leur mot à dire sur ce sujet, créez un comité de cinq ou 10 personnes qui peuvent effectuer des tests rapides sur une période de trois semaines. »
Avec l’engouement actuel pour l’IA, Lloyd de l’UJET voit une ruée vers l’adoption de l’IA alors qu’elle n’est peut-être pas la bonne solution. Les DSI doivent d’abord identifier un problème que l’IA peut résoudre.
«Je ne pense pas que les entreprises se demandent réellement, lorsqu’elles examinent les problèmes qu’elles tentent de résoudre, si l’IA est même applicable», dit-il. « Je peux ouvrir une bouteille avec une clé, mais ce n’est pas forcément la meilleure approche. »
Source link