Fermer

mars 20, 2024

La route semée d’embûches pour l’IA

La route semée d’embûches pour l’IA



Depuis sa création, l’intelligence artificielle (IA) évolue rapidement. Avec l’introduction de ChatGPT, DALL-E et d’autres outils d’IA générative, 2023 est devenue une année de grands progrès, mettant l’IA entre les mains des masses. Même dans toute sa splendeur, nous sommes également à un point d’inflexion.

L’IA révolutionnera les industries et augmentera les capacités humaines, mais elle soulèvera également d’importantes questions éthiques. Nous devrons réfléchir de manière critique à la question de savoir si les tâches basées sur l’IA plus faciles et plus rapides sont meilleures, ou simplement plus faciles et plus rapides. Les outils que les lycéens utilisent pour rédiger leurs devoirs sont-ils ceux sur lesquels nous pouvons compter pour alimenter des applications d’entreprise ?

La réponse courte est non, mais le battage médiatique pourrait donner lieu à une autre histoire. Il est clair que l’IA est prête pour une autre année marquante, mais c’est la façon dont nous relèverons les défis qu’elle apporte qui déterminera sa véritable valeur. Voici trois difficultés potentielles de croissance que les chefs d’entreprise devraient garder à l’esprit lorsqu’ils se lancent dans leur parcours vers l’IA en 2024.

Les LLM provoqueront des difficultés

Une ingénierie rapide est une chose, mais la mise en œuvre d’applications de grands modèles linguistiques (LLM) qui aboutissent à des résultats précis et de niveau entreprise est plus difficile qu’annoncé initialement. Les LLM ont promis de rendre les tâches d’IA plus intelligentes, plus fluides et plus évolutives que jamais, mais les faire fonctionner efficacement est un obstacle auquel de nombreuses entreprises seront confrontées. Même si la mise en route est simple, la précision et la fiabilité ne sont pas encore acceptables pour une utilisation en entreprise.

Gérer la robustesse, l’équité, les préjugés, la véracité et les fuites de données demande beaucoup de travail, et tous sont des conditions préalables pour mettre les LLM en production en toute sécurité. Prenons l’exemple des soins de santé. Des recherches universitaires récentes ont révélé que les modèles GPT fonctionnaient mal dans des tâches critiques, telles que la reconnaissance d’entités nommées (NER) et la désidentification. En fait, le modèle PubMedBERT spécifique aux soins de santé a largement surpassé les deux modèles LLM dans les tâches de NER, d’extraction de relations et de classification multi-étiquettes.

Le coût est une autre préoccupation majeure pour les modèles GPT pour de telles tâches. Certains LLM sont deux fois plus chers que les modèles plus petits. Pour continuer avec l’exemple des soins de santé, avec la quantité d’informations cliniques à analyser, cela réduit considérablement la viabilité économique des solutions basées sur GPT. Et par conséquent, nous verrons malheureusement de nombreux projets spécifiques au LLM stagner ou échouer complètement.

La spécification de domaine n’est plus une nécessité

Utiliser OpenAI pour poser des questions dans un domaine spécifique, comme les soins de santé ou le secteur juridique, ne suffit pas. Certaines tâches ne peuvent pas être résolues par un simple réglage des modèles. Dans ce cas, l’ingénierie et l’expertise du domaine est cruciale. Vous ne demanderiez pas à un data scientist d’effectuer une opération chirurgicale ; ne vous attendez pas à ce que l’IA effectue des tâches spécifiques à un secteur sans un professionnel à la barre.

Selon une enquête de Flux dégradé, interrogés sur les utilisateurs prévus des outils et technologies d’IA, plus de la moitié des personnes interrogées ont identifié les cliniciens (61 %) comme utilisateurs cibles, et près de la moitié ont indiqué que les prestataires de soins de santé (45 %) faisaient partie de leurs utilisateurs cibles. De plus, un taux plus élevé de responsables techniques ont cité les organismes payeurs de soins de santé et les professionnels du développement de médicaments comme utilisateurs potentiels des applications d’IA.

Il est probable que le passage du data scientist à l’expertise spécialisée se poursuivra dans le domaine de la santé et au-delà, en particulier avec la montée en puissance des outils low-code et no-code. Il s’agit d’une évolution importante, car la démocratisation de l’IA ouvrira la porte à un plus grand nombre d’utilisateurs pour stimuler l’innovation. Mais dans l’état actuel des choses, les meilleurs résultats sont obtenus lorsque les ingénieurs et les experts du domaine travaillent en tandem.

L’IA responsable devient SOP

Un autre défi auquel nous serons confrontés, bien que positif et attendu depuis longtemps, est la mise en lumière de réglementations éthiques. Les précédents juridiques et les lignes directrices qui donnent la priorité à la responsabilité des fournisseurs deviendront une exigence commerciale standard pour l’utilisation des outils d’IA. Nous voyons déjà cela se matérialiser avec le décret de Biden sur l’IA et la réglementation britannique sur l’IA.

Il s’agit d’une étape importante, d’autant plus que les outils d’IA tiers sont responsables de plus de la moitié (55 %) des pannes liées à l’IA dans les organisations. recherche récente trouvé par MIT Sloan Management Review et Boston Consulting Group. Les conséquences de ces échecs comprennent des atteintes à la réputation, des pertes financières, une perte de confiance des consommateurs et des litiges. Cela met en évidence la nécessité de responsabiliser le fournisseur et les conséquences si les mesures appropriées ne sont pas prises.

Même si le chemin vers la production peut être plus long qu’auparavant, il n’y a que peu de valeur économique à investir dans des solutions qui peuvent en fin de compte nuire à votre entreprise. Si vous vendez un logiciel, vous êtes directement responsable de ce qu’il fait en production. Adhérer aux normes éthiques de l’IA n’est plus seulement la bonne chose à faire : il est illégal de ne pas le faire et deviendra une procédure opérationnelle standard, comme il se doit.

Même si le chemin à parcourir peut être semé d’embûches, 2024 sera une autre année déterminante pour l’IA. L’innovation évolue plus rapidement que jamais, mais il est essentiel de se demander si nous faisons plus de bien que de mal. Même si nous allons sûrement connaître de réelles difficultés de croissance dans l’industrie, ce sera probablement une autre année décisive pour l’IA.

Intelligence artificielle, affaires




Source link