Fermer

août 21, 2025

Pourquoi l’IA n’est pas vraiment intelligente – et comment nous pouvons changer cela

Pourquoi l’IA n’est pas vraiment intelligente – et comment nous pouvons changer cela


Les opinions exprimées par les contributeurs entrepreneurs sont les leurs.

Soyons honnêtes: la plupart de ce que nous appelons intelligence artificielle Aujourd’hui n’est vraiment que la correspondance de motifs sur le pilote automatique. Il a l’air impressionnant jusqu’à ce que vous grattiez la surface. Ces systèmes peuvent générer des essais, composer du code et simuler la conversation, mais à la base, ce sont des outils prédictifs formés sur le contenu étreint et périmé. Ils ne comprennent pas le contexte, l’intention ou les conséquences.

Il n’est donc pas étonnant que dans ce boom de l’utilisation de l’IA, nous constatons toujours des erreurs de base, des problèmes et des défauts fondamentaux qui conduisent beaucoup à se demander si la technologie a vraiment un avantage en dehors de sa nouveauté.

Ces Modèles de grande langue (LLMS) ne sont pas cassés; Ils sont construits sur la mauvaise base. Si nous voulons que l’IA fasse plus que nos pensées, nous devons repenser les données dont il apprend.

En rapport: Malgré la façon dont les médias le dépeignent, l’IA n’est pas vraiment intelligente. Voici pourquoi.

L’illusion de l’intelligence

Les LLM d’aujourd’hui sont généralement formées sur les threads Reddit, les vidages Wikipedia et le contenu Internet. C’est comme enseigner à un étudiant avec des manuels obsolètes et remplis d’erreurs. Ces modèles imitent l’intelligence, mais ils ne peuvent pas raisonner à proximité niveau humain. Ils ne peuvent pas prendre de décisions comme une personne dans des environnements à haute pression.

Oubliez le marketing lisse autour de ce boom de l’IA; Tout est conçu pour maintenir les évaluations gonflées et ajouter un autre zéro au prochain tour de financement. Nous avons déjà vu les vraies conséquences, celles qui n’obtiennent pas le traitement brillant des relations publiques. Les bots médicaux hallucinent des symptômes. Les modèles financiers font cuire des biais. Les voitures autonomes ont mal lu les panneaux d’arrêt. Ce ne sont pas des risques hypothétiques. Ce sont des échecs du monde réel né de données de formation faibles et mal alignées.

Et les problèmes vont au-delà des erreurs techniques – ils ont coupé au cœur de la propriété. De New York Times à Images gettyles entreprises poursuivent les entreprises d’IA pour utiliser leur travail sans consentement. Les affirmations grimpent dans les milliers de milliards, certains les appelant des poursuites judiciaires de fin d’entreprise pour des entreprises comme Anthropic. Ces batailles légales ne concernent pas seulement le droit d’auteur. Ils exposent la pourriture structurelle de la construction de l’IA d’aujourd’hui. S’appuyer sur un contenu ancien, sans licence ou biaisé pour former des systèmes orientés vers les futurs est une solution à court terme à un problème à long terme. Il nous enferme dans des modèles fragiles qui s’effondrent dans des conditions réelles.

Une leçon d’une expérience ratée

L’année dernière, Claude a dirigé un projet intitulé « Vendre du projet« Dans lequel son modèle a été chargé de gérer un petit magasin automatisé. L’idée était simple: stocker le réfrigérateur, gérer les chats des clients et réaliser un profit. Au lieu de cela, le modèle a donné des cadeaux, des méthodes de paiement hallucinées et a débarqué l’intégralité de l’entreprise en quelques semaines.

L’échec n’était pas dans le code. C’était pendant la formation. Le système avait été formé pour être utile, et non pour comprendre les nuances de la gestion d’une entreprise. Il ne savait pas comment peser les marges ou résister à la manipulation. C’était assez intelligent pour parler comme un propriétaire d’entreprise, mais ne pas penser comme un.

Qu’est-ce qui aurait fait la différence? Données de formation qui reflétaient le jugement réel. Des exemples de personnes prenant des décisions lorsque les enjeux étaient élevés. C’est le type de données qui enseigne les modèles à raisonner, pas seulement imiter.

Mais voici la bonne nouvelle: il y a une meilleure voie à suivre.

En rapport: L’IA ne nous remplacera pas tant qu’elle ne deviendra beaucoup plus comme nous

L’avenir dépend des données frontalières

Si les modèles d’aujourd’hui sont alimentés par des instantanés statiques du passé, l’avenir de Vous avez la date regardera plus loin. Il capturera les moments où les gens pèsent les options, s’adaptent à de nouvelles informations et prendront des décisions dans des situations complexes et à enjeux élevés. Cela signifie non seulement enregistrer ce que quelqu’un a dit, mais comprendre comment il est arrivé à ce moment-là, quels compromis il considérait et pourquoi ils ont choisi une voie plutôt que d’une autre.

Ce type de données est recueilli en temps réel à partir d’environnements comme les hôpitaux, les sols commerciaux et les équipes d’ingénierie. Il provient de workflows actifs plutôt que de gratter des blogs – et il est contribué volontiers plutôt que pris sans consentement. C’est ce que l’on appelle données frontièresle type d’informations qui capture le raisonnement, pas seulement la sortie. Il donne à l’IA la capacité d’apprendre, d’adapter et de s’améliorer, plutôt que de simplement deviner.

Pourquoi cela compte pour les affaires

Le marché de l’IA peut être se diriger vers des milliers de milliersmais de nombreux déploiements d’entreprise révèlent déjà une faiblesse cachée. Les modèles qui fonctionnent bien dans les repères échouent souvent dans des paramètres opérationnels réels. Lorsque même de petites améliorations de la précision peuvent déterminer si un système est utile ou dangereux, les entreprises ne peuvent pas se permettre d’ignorer la qualité de leurs intrants.

Il y a également une pression croissante des régulateurs et du public pour s’assurer que les systèmes d’IA sont éthiques, inclusifs et responsables. Le J’ai l’acteentrant en vigueur en août 2025, applique une stricte transparence, une protection contre le droit d’auteur et des évaluations des risques, avec de lourdes amendes pour violations. Modèles de formation sur sans licence ou données biaisées n’est pas seulement un risque juridique. C’est une réputation. Il érode la confiance avant qu’un produit expédie.

Investir dans de meilleures données et de meilleures méthodes pour la collecte n’est plus un luxe. C’est une exigence pour toute entreprise qui construit des systèmes intelligents qui doivent fonctionner de manière fiable à grande échelle.

En rapport: Les préoccupations éthiques émergentes à l’ère de l’intelligence artificielle

Un chemin à terme

La réparation de l’IA commence par la fixation de ses entrées. S’appuyer sur la sortie antérieure d’Internet n’aidera pas les machines à motif par le biais de complexités actuelles. La construction de meilleurs systèmes nécessitera une collaboration entre les développeurs, les entreprises et les individus pour trouver des données qui ne sont pas seulement exactes mais aussi éthique aussi.

Frontier Data offre une base pour une véritable intelligence. Il donne aux machines la possibilité d’apprendre de la façon dont les gens résolvent réellement les problèmes, pas seulement comment ils en parlent. Avec ce type de contribution, l’IA peut commencer à raisonner, à s’adapter et à prendre des décisions qui tiennent dans le monde réel.

Si l’intelligence est l’objectif, il est temps d’arrêter de recycler l’échappement numérique et de commencer à traiter les données comme l’infrastructure critique.

Soyons honnêtes: la plupart de ce que nous appelons intelligence artificielle Aujourd’hui n’est vraiment que la correspondance de motifs sur le pilote automatique. Il a l’air impressionnant jusqu’à ce que vous grattiez la surface. Ces systèmes peuvent générer des essais, composer du code et simuler la conversation, mais à la base, ce sont des outils prédictifs formés sur le contenu étreint et périmé. Ils ne comprennent pas le contexte, l’intention ou les conséquences.

Il n’est donc pas étonnant que dans ce boom de l’utilisation de l’IA, nous constatons toujours des erreurs de base, des problèmes et des défauts fondamentaux qui conduisent beaucoup à se demander si la technologie a vraiment un avantage en dehors de sa nouveauté.

Ces Modèles de grande langue (LLMS) ne sont pas cassés; Ils sont construits sur la mauvaise base. Si nous voulons que l’IA fasse plus que nos pensées, nous devons repenser les données dont il apprend.

Le reste de cet article est verrouillé.

Rejoindre l’entrepreneur+ Aujourd’hui pour l’accès.




Source link