Fermer

septembre 21, 2023

Les 10 principales tendances de l’année en matière d’IA en entreprise jusqu’à présent

Les 10 principales tendances de l’année en matière d’IA en entreprise jusqu’à présent



« Et nous l’avons peut-être même sous-estimé », dit Patience.

Il suit actuellement 262 fournisseurs d’IA de génération, dont 117 sont spécialisés dans la génération de texte, et prévoit de produire une nouvelle version du rapport dans les six prochains mois. Normalement, dit-il, ce type de rapports est actualisé tous les deux ans, mais ce marché évolue trop rapidement pour cela.

L’une des raisons pour lesquelles la génération IA est ajoutée plus rapidement aux logiciels d’entreprise que les générations précédentes d’IA est qu’elle peut potentiellement changer la relation entre les humains et les logiciels, dit-il.

«Il a la capacité de permettre aux gens de converser en langage naturel et de faire avancer les choses», dit-il. « Auparavant, ils devaient coder ou comprendre Excel ou un langage de requête. Grâce à l’utilisation du langage naturel, vous pouvez, en tant qu’être humain, exécuter des requêtes complexes sur des ensembles de données et d’autres choses trop complexes pour être réalisées par vous-même.

Patience suit cet espace depuis plus de deux décennies et affirme n’avoir jamais rien vu de pareil.

«C’est incroyable», dit-il. « Nos clients, et ceux à qui je n’ai jamais parlé auparavant, veulent tous savoir ce qui se passe. Pour ceux qui ont des compétences, cela va être un multiplicateur de force. Pour d’autres, ce sera un peu plus une menace. Mais cela permettra aux gens d’effectuer un travail à plus forte valeur ajoutée que ce qu’ils sont actuellement en mesure de faire.

Automatisation des processus métier

L’IA joue depuis longtemps un rôle dans la RPA, quoique modeste. ML a été utilisé pour l’analyse des sentiments et pour numériser des documents, classer des images, transcrire des enregistrements et d’autres fonctions spécifiques. Puis la génération AI est apparue.

« Le monde a basculé depuis 2022 », déclare David McCurdy, architecte d’entreprise en chef et CTO chez Insight. « Nous avons réalisé un certain nombre de choses avec nos clients qui n’étaient pas prévues il y a 12 mois. Vous avez désormais la possibilité de sauter par-dessus des processus qui existent depuis des années, parfois des décennies, grâce à la technologie générative.

L’un des meilleurs cas d’utilisation immédiats consiste à résumer des documents et à en extraire des informations, dit-il.

« Cela n’était pas possible avant », dit-il. « Maintenant, vous pouvez entrer et extraire un concept, pas seulement un mot. Cela transforme certains de nos flux de travail.

Cependant, les entreprises ne parviennent toujours pas à extraire suffisamment de valeur des données non structurées cachées dans les documents, déclare Nick Kramer, vice-président des solutions appliquées au sein du cabinet de conseil en gestion SSA & Company.

« La technologie existante ne permet tout simplement pas de faire apparaître le contenu le plus pertinent de manière cohérente et assez simple », dit-il. « C’est là que les grands modèles linguistiques m’enthousiasment vraiment. La capacité d’assimiler le corpus de connaissances de l’entreprise offre des possibilités illimitées.

Gestion des fournisseurs d’IA

Seules les plus grandes entreprises vont créer ou gérer leurs propres modèles d’IA, et même celles-ci s’appuieront sur les fournisseurs pour fournir la plupart de l’IA qu’elles utilisent. Microsoft, Google, Salesforce : tous les principaux acteurs s’intéressent à l’IA, il est donc logique d’en tirer parti. Mais à mesure que la génération IA touche davantage les données, les personnes et les processus d’une entreprise, le processus de sélection et de gestion des fournisseurs devient de plus en plus important.

«Je n’acquérirais pas de technologie opérationnelle sans capacités de ML et d’IA», déclare McCurdy d’Insight. « Si les entreprises n’exploitent pas l’IA et n’ont pas de feuille de route, nous n’achèterons pas leurs logiciels. »

C’est l’un des moyens par lesquels les entreprises peuvent éviter la dette technique, dit-il, en investissant dans des partenaires et des entreprises investissant dans l’IA. Mais même lorsqu’un fournisseur a l’IA sur sa feuille de route, ou est déjà en train de la développer, il existe toujours des risques. « Tout comme aux débuts d’Internet, de nombreuses entreprises vont et viennent », explique Rob Lee, directeur principal des programmes et directeur du corps professoral du SANS Institute. Il le constate déjà dans le domaine de la cybersécurité. «Chez Black Hat, j’ai vu au moins une centaine d’entreprises», dit-il. « Mais ont-ils quelque chose de vraiment vendable ?

Les acheteurs doivent faire attention aux mesures de sécurité mises en place par les vendeurs. Avec les déploiements de nouvelles technologies, la sécurité vient souvent après coup. Avec l’IA, ce serait une grave erreur.

« Que se passe-t-il si vous téléchargez vos données sur ces IA ? » » demande Lee. « Vous voulez expérimenter, mais si quelqu’un télécharge la mauvaise feuille de calcul sur la mauvaise IA, vous avez une violation de données. »

Une IA digne de confiance

L’année dernière, alors que l’IA classique était de plus en plus déployée en production, les entreprises ont commencé à prendre la question de la fiabilité plus au sérieux. Ils voulaient des modèles fiables, exempts de préjugés et fondés sur des principes éthiques. De plus, l’IA doit être transparente et compréhensible, car les gens veulent savoir pourquoi les IA prennent les décisions et recommandations qu’elles font. Aujourd’hui, la fiabilité est une priorité absolue pour tous, depuis les étudiants qui tentent d’obtenir de l’aide pour leurs devoirs jusqu’aux dirigeants mondiaux qui cherchent à éviter une apocalypse de l’IA. Les chercheurs, les fournisseurs, les consultants et les régulateurs travaillent à l’élaboration de garde-fous et de principes éthiques qui régiront la manière dont l’IA est formée et déployée.

«Nous n’en sommes qu’aux premières phases», déclare Donncha Carroll, associée au sein de la pratique de croissance des revenus et chef de l’équipe de science des données chez Lotis Blue Consulting. « Vous ne voulez pas faire confiance à un système dont vous ne pouvez ni voir ni vérifier son fonctionnement, surtout s’il peut prendre des décisions qui peuvent avoir des conséquences. L’élément de surveillance n’a pas encore été résolu.

IA open source

L’open source est depuis longtemps un moteur d’innovation dans le domaine de l’IA. De nombreux outils de science des données et modèles de base sont open source ou reposent fortement sur des projets open source. Pendant quelques mois cette année, on a craint que le nouvel espace de la génération IA soit dominé par des géants de la technologie, des entreprises qui disposaient des millions de dollars nécessaires pour former de grands modèles de langage (LLM) et des données sur lesquelles les former.

ChatGPT d’OpenAI, Bard de Google, Watson d’IBM, Claude d’Anthropic et d’autres modèles de fondation majeurs sont propriétaires. Mais en février, Meta a publié Llama, un LLM open source sous licence pour une utilisation non commerciale, qui est rapidement devenu la base de nombreux projets. Puis, en juillet, Meta’s Llama 2 est sorti, et cette fois, il a obtenu une licence pour un usage commercial. N’importe qui pouvait l’utiliser ou le modifier, gratuitement, à condition de compter moins de 700 millions d’utilisateurs quotidiens actifs. Microsoft s’est rapidement engagé à le prendre en charge sur sa plateforme Azure. Amazon sur AWS aussi. Et VMware en a fait l’une des pierres angulaires de sa pile gen AI.

En août, Meta a continué à publier des modèles. Cette fois, c’était Code Llama, un LLM formé à l’écriture de code. Puis, en septembre, l’Institut d’innovation technologique des Émirats arabes unis a lancé le Falcon 180B, le plus grand modèle open source jamais conçu. Il s’est rapidement hissé au sommet du classement ouvert LLM Hugging Face, auparavant dominé par Llama 2 et ses variantes.

Falcon a également été publié sous une variante de la licence Apache 2, disponible pour un usage commercial, et fonctionne à la fois pour la génération de langage naturel et pour le code.

Les modèles open source permettent aux entreprises de déployer une IA personnalisée dans leur propre infrastructure, sans avoir à envoyer leurs données à un fournisseur de cloud, et offrent une plus grande flexibilité et des coûts réduits. Certains de ces modèles open source sont même suffisamment petits pour fonctionner sur des ordinateurs de bureau ou des appareils mobiles.

« Vous allez voir davantage de cette incroyable puissance de calcul distribuée en périphérie », déclare Carroll de Lotis Blue.

Infrastructure de données sécurisée et fiable

Le ML et la génération AI dépendent des données. Au cours des dix dernières années, les données sont devenues l’actif le plus précieux d’une entreprise, l’électricité qui alimente l’innovation et la création de valeur. Pour rendre tout cela possible, les données devaient être collectées, traitées et introduites dans les systèmes qui en avaient besoin de manière fiable, efficace, évolutive et sécurisée. Les entrepôts de données ont ensuite évolué vers des lacs de données, puis vers des structures de données et d’autres architectures de données à l’échelle de l’entreprise. Tout cela va s’avérer précieux, à la fois à mesure que les entreprises continuent d’étendre leurs projets d’IA traditionnels et pour la fonctionnalité d’IA de nouvelle génération mise en ligne. Pour de nombreuses entreprises, cela signifie que les chatbots publics comme ChatGPT ne sont pas une option en raison du manque de protection des données de niveau entreprise.

« Il est nécessaire de protéger les données qui y sont stockées », déclare McCurdy. « Cela crée une barrière évidente pour certains cas d’utilisation jusqu’à ce que vous établissiez ce périmètre de sécurité. »

Pour certains, cela signifie exécuter le modèle OpenAI ou d’autres dans des cloud privés, ou même exécuter des modèles open source sur site, en fonction du profil de risque de l’entreprise. Pendant ce temps, même après des années d’efforts, de nombreuses entreprises ne disposent toujours pas de données prêtes pour l’IA. Selon le nouveau rapport de S&P Global Enquête 2023 sur les tendances mondiales de l’IA Selon un rapport de 1 500 praticiens et décideurs de l’IA, publié en août, le plus grand défi technologique du déploiement de l’IA est la gestion des données. Et même si 69 % des entreprises ont au moins un projet d’IA en production, seulement 28 % ont atteint l’échelle de l’entreprise.

Un rythme de changement accéléré

La génération IA ne serait pas possible sans la connectivité mondiale offerte par Internet et la quantité massive d’informations si facilement disponibles sous forme numérique, prêtes à être utilisées comme données de formation. Il y a ensuite le cloud computing, le SaaS et les API, qui permettent de déployer de nouvelles technologies rapidement et facilement sans coûts d’intégration initiaux importants pour les entreprises. Il n’est donc pas surprenant que le taux d’adoption de la génération IA soit plus rapide que celui de toute autre technologie connue auparavant. Mais au-delà de cela, la gen AI est aussi une technologie qui contribue à accélérer son propre développement.

En avril, le capital-risqueur Yohei Nakajima s’est demandé s’il était possible d’avoir un « fondateur d’IA », capable de diriger une entreprise de manière autonome, et a demandé à ChatGPT de la créer. Cela a pris environ trois heures au total et ChatGPT a écrit le code, le document de recherche et un fil de discussion Twitter. Nakajima l’a appelé « BabyAGI » et il est devenu viral sur GitHub. C’était un agent polyvalent qui pouvait être mis au travail pour atteindre n’importe quel objectif, pas seulement pour créer une entreprise.

« J’ai demandé en plaisantant à l’agent autonome de créer autant de trombones que possible », a écrit Nakajima dans un article de blog décrivant le projet. « Il a découvert l’apocalypse du trombone de l’IA et a commencé par générer un protocole de sécurité. »

BabyAGI utilise l’API GPT-4 d’OpenAI, la recherche de vecteurs Pinecone et le framework LangChain AI pour déterminer quelles tâches doivent être effectuées pour atteindre un objectif, comment hiérarchiser ces tâches, puis les exécuter. Des projets similaires incluent AutoGPT et AgentGPT.

Un autre exemple d’IA qui s’est relevée par ses propres moyens cette année est celui d’Alpaca, où des chercheurs de l’Université de Stanford ont utilisé l’un des premiers modèles de lama de Meta. Il s’agissait d’un modèle brut qui n’avait pas fait l’objet d’un apprentissage par renforcement à partir des commentaires humains, un processus long et coûteux. Alpaca a pris un raccourci en utilisant text-davinci-003 d’OpenAI, un proche parent de ChatGPT, pour générer 52 000 paires de questions-réponses et les a utilisées pour former son nouveau chatbot. L’ensemble du processus a coûté moins de 600 dollars, ont indiqué les chercheurs, dont 500 dollars ont été consacrés à l’API OpenAI et 100 dollars aux coûts informatiques. Et lorsque l’équipe l’a testé, ses performances étaient comparables à celles de text-davinci-003. En d’autres termes, les modèles de génération IA peuvent écrire du nouveau code pour améliorer leurs propres performances et générer des données pour former la prochaine génération de modèles.

« Les outils et boîtes à outils évoluent très rapidement », déclare Priya Iragavarapu, vice-présidente des services de technologie numérique chez AArete, une société de conseil en gestion. « Avant même que les dirigeants et la communauté soient capables de lire et de comprendre le manuel. » Cela crée des défis pour les entreprises qui tentent de planifier à l’avance, dit-elle, car il est difficile de dire ce qui est déjà possible et ce qui est encore en développement. « Il devient difficile pour les dirigeants de faire la distinction entre les deux », dit-elle.

En raison du rythme rapide du changement, de nombreuses entreprises cherchent à créer des cadres flexibles, qui leur permettent d’adopter différents modèles au fur et à mesure de leur développement. Par exemple, PricewaterhouseCoopers ne se limite à aucun LLM en particulier.

«Nous avons une architecture de plugins», explique Greenstein de PwC. « Nous aidons les gens à construire selon toutes les normes existantes, tout en conservant de la flexibilité. »

L’entreprise compte également des personnes qui surveillent de près les avancées du développement. « Avec l’IA, tout va très vite », dit-il. « Nous nous concentrons sur des « mouvements sans regret », comme la construction d’une infrastructure indépendante du LLM. C’est crucial aujourd’hui, car les modèles se dépassent les uns les autres.»




Source link

septembre 21, 2023