4 raisons pour lesquelles l’IA générative ne remplacera pas les humains de si tôt
Les opinions exprimées par les contributeurs d’Entrepreneur sont les leurs.
Depuis IA générative (ou « GenAI ») a fait irruption sur la scène plus tôt cette année, l’avenir de la productivité humaine est devenu plus obscur. Chaque jour s’accompagne d’attentes croissantes selon lesquelles des outils tels que ChatGPT, Midjourney, Bard et d’autres remplaceront bientôt la production humaine.
Comme pour la plupart des technologies perturbatrices, nos réactions face à cette technologie vont des extrêmes de l’espoir et de la peur. Du côté de l’espoir, GenAI a été présenté comme un « outil de création révolutionnaire » ce passionné d’aventure, Marc Andreeson, pense qu’il le fera un jour « sauver le monde. » D’autres ont prévenu que cela signifierait « la fin » de originalité, démocratie ou même civilisation lui-même.
Mais il ne s’agit pas seulement de ce que GenAI peut faire. En réalité, elle opère dans un contexte plus large de lois, de facteurs financiers et de réalités culturelles.
Et déjà, cette vision d’ensemble nous présente au moins quatre bonnes raisons pour lesquelles l’IA n’éliminera pas les humains de si tôt.
En rapport: Les principales craintes et dangers de l’IA générative – et que faire à leur sujet
1. La sortie GenAI peut ne pas être propriétaire
Le US Copyright Office a récemment décidé que les œuvres produites par GenAI ne sont pas protégées par le droit d’auteur.
Lorsque le produit du travail est hybride, seules les parties ajouté par l’humain sont protégés.
Saisir plusieurs invites ne suffit pas : une œuvre produite par Midjourney a été inscription refusée même si une personne a saisi 624 invites pour le créer. Cela a été confirmé plus tard dans Tribunal de district de DC.
Il existe des difficultés similaires en matière de brevetage inventions créées par l’IA.
Les marchés sont des jeux légalement limités. Ils nécessitent un investissement risqué, une distribution maîtrisée et l’allocation de budgets marketing. Sans droits, ils s’effondrent.
Et même si certains pays peuvent reconnaître des droits limités dans la production de GenAI, des contributions humaines sont toujours nécessaires pour garantir des droits forts à l’échelle mondiale.
2. La fiabilité de GenAI reste inégale
Dans un monde déjà saturé d’informations, la fiabilité est plus importante que jamais. Et la fiabilité de GenAI a été, jusqu’à présent, très inégale.
Par exemple, un avocat d’appel a récemment fait la une des journaux pour avoir utilisé ChatGPT pour créer son recueil de cas. Il s’avère que les cas cités étaient a inventé, ce qui a donné lieu à des sanctions contre l’avocat. Cette étrange faille a déjà eu des conséquences juridiques : un juge fédéral du Texas a récemment demandé aux avocats de certifier qu’ils n’avaient pas utilisé de données non contrôlées. AI dans leurs dossierset ailleurs, les utilisations de l’IA doivent désormais être divulguées.
Des problèmes de fiabilité sont également apparus dans les domaines STEM. Des chercheurs de Stanford et de Berkeley ont découvert que la capacité de GPT-4 à générer du code avait inexplicablement a empiré au fil du temps. Une autre étude a révélé que sa capacité à identifier les nombres premiers est tombé de 97,5 % en mars à un niveau incroyablement bas de 2,4 % trois mois plus tard.
Qu’il s’agisse de problèmes temporaires ou de fluctuations permanentes, les êtres humains confrontés à des enjeux réels devraient-ils faire aveuglément confiance à l’IA sans demander à des experts humains d’examiner ses résultats ? À l’heure actuelle, il serait imprudent – voire imprudent – de le faire. De plus, les régulateurs et les assureurs commencent à exiger le contrôle humain des résultats de l’IA, indépendamment de ce que les individus sont prêts à tolérer.
De nos jours, la simple capacité de générer des informations qui « semblent » légitimes n’a pas beaucoup de valeur. La valeur de l’information dépend de plus en plus de sa fiabilité. Et un contrôle humain est toujours nécessaire pour garantir cela.
3. Les LLM sont myopes en matière de données
Il peut y avoir un facteur encore plus profond qui limite la qualité des informations générées par grands modèles de langageou LLM, plus généralement : ils ne sont pas formés sur certaines des bases de données les plus riches et de la plus haute qualité que nous générons en tant qu’espèce.
Ils incluent ceux créés par des sociétés publiques, des entreprises privées, des gouvernements, des hôpitaux et des entreprises professionnelles, ainsi que des informations personnelles, qu’ils ne sont pas autorisés à utiliser.
Et tandis que nous nous concentrons sur le monde numérique, nous pouvons oublier qu’il existe d’énormes quantités d’informations qui ne sont jamais transcrites ni numérisées, comme les communications dont nous disposons uniquement oralement.
Ces pièces manquantes dans le puzzle informationnel conduisent inévitablement à des lacunes dans les connaissances qui ne peuvent pas être facilement comblées.
Et si les récentes poursuites pour droits d’auteur intentées par l’actrice Sarah Silverman et d’autres réussissent, les LLM pourraient bientôt perdre l’accès au contenu protégé par le droit d’auteur sous forme d’ensemble de données. L’étendue des informations disponibles peut en fait rétrécir avant qu’il ne s’étende.
Bien entendu, les bases de données utilisées par les LLM continueront de croître et le raisonnement de l’IA s’améliorera considérablement. Mais ces bases de données interdites vont également croître en parallèle, transformant ce problème de « myopie de l’information » en une fonctionnalité permanente plutôt qu’un bug.
En rapport: Voici ce que l’IA ne pourra jamais faire
4. L’IA ne décide pas de ce qui a de la valeur
La limite ultime de GenAI est peut-être aussi la plus évidente : elle ne sera tout simplement jamais humaine.
Alors que nous nous concentrons sur l’offre – ce que l’IA générative peut et ne peut pas faire – qui décide réellement de la valeur ultime des résultats ?
Il ne s’agit pas d’un programme informatique qui évalue objectivement la complexité d’une œuvre, mais d’êtres humains capricieux, émotifs et partiaux. La demande, avec ses nombreuses particularités et nuances, reste « trop humaine ».
Nous ne nous rapporterons peut-être jamais à l’art de l’IA comme nous le faisons à l’art humain, avec l’expérience vécue et les interprétations de l’artiste en toile de fond. Les changements culturels et politiques ne seront peut-être jamais pleinement capturés par les algorithmes. Des interprètes humains de ce contexte plus large seront peut-être toujours nécessaires pour convertir notre réalité ressentie en entrées et sorties finales et les déployer dans le domaine de l’activité humaine – ce qui reste la fin du jeu, après tout.
Qu’est-ce que GPT-4 lui-même y pense-t-il ?
Je génère du contenu basé sur des modèles dans les données sur lesquelles j’ai été formé. Cela signifie que même si je peux combiner et réutiliser les connaissances existantes de manière nouvelle, je ne peux pas véritablement créer ou introduire quelque chose d’entièrement nouveau ou sans précédent. Les créateurs humains, en revanche, produisent souvent des travaux révolutionnaires qui remodèlent des domaines entiers ou introduisent de toutes nouvelles perspectives. Une telle originalité vient souvent d’au-delà des limites des connaissances existantes, un saut que je ne peux pas faire. L’utilisation finale est toujours déterminée par les humains, ce qui leur donne un avantage injuste sur les outils d’IA plus impressionnants sur le plan informatique.
Et donc, parce que les humains contrôlent toujours à 100 % la demande, cela donne à nos meilleurs créateurs un avantage, c’est-à-dire une compréhension intuitive de la réalité humaine.
La demande limitera toujours la valeur de ce que produit l’IA. Plus la GenAI devient « intelligente » (ou les humains « stupides »), plus ce problème va s’aggraver.
En rapport: À l’ère de l’intelligence artificielle, il y a toujours de la place pour l’intelligence humaine
Ces limitations n’abaissent pas le plafond de GenAI en tant qu’outil révolutionnaire. Ils évoquent simplement un avenir dans lequel nous, les humains, serons toujours impliqués au centre de tous les aspects clés de la production culturelle et informationnelle.
La clé pour libérer notre propre potentiel réside peut-être dans une meilleure compréhension des domaines dans lesquels l’IA peut offrir ses avantages sans précédent et des domaines dans lesquels nous pouvons apporter une contribution humaine unique.
Ainsi, notre avenir en matière d’IA sera hybride. Comme le dit l’informaticien Pedro Domingos, auteur de L’algorithme principal a écrit : « Les données et l’intuition sont comme le cheval et le cavalier, et vous n’essayez pas de distancer un cheval ; vous le montez. Ce n’est pas l’homme contre la machine ; c’est l’homme avec la machine contre l’homme sans. »
Source link