Fermer

juin 16, 2025

L’avantage de l’IA que la plupart des entrepreneurs sont manquants

L’avantage de l’IA que la plupart des entrepreneurs sont manquants


Les opinions exprimées par les contributeurs entrepreneurs sont les leurs.

Dans mon travail conseillant les chefs d’entreprise sur AI adoptionJ’ai vu un schéma surprenant émerger. Bien que l’industrie soit préoccupée par la construction de modèles toujours plus lourds, la prochaine vague d’opportunités ne vient pas du sommet – elle vient de plus en plus du bord.

Modèles compacts, ou modèles de petit langage (SLMS), déverrouillent une nouvelle dimension de l’évolutivité – pas par une puissance de calcul pure, mais par accessibilité. Avec des exigences de calcul inférieures, des cycles d’itération plus rapides et un déploiement plus facile, les SLM sont fondamentalement en train de changer qui construit, qui déploie et à quelle vitesse la valeur commerciale tangible peut être créée. Pourtant, je trouve que de nombreux entrepreneurs négligent toujours ce changement significatif.

En rapport: Plus de chatpt? Voici pourquoi les petits modèles de langue volent les projecteurs de l’IA

Ajustement de la tâche sur la taille du modèle

D’après mon expérience, l’un des mythes les plus persistants de l’adoption de l’IA est que les performances évoluent linéairement avec la taille du modèle. L’hypothèse est intuitive: modèle plus grand, de meilleurs résultats. Mais dans la pratique, cette logique vacille souvent parce que la plupart du monde réel tâches commerciales Ne nécessitez pas intrinsèquement plus de puissance; Ils nécessitent un ciblage plus net, ce qui devient clair lorsque vous regardez les applications spécifiques au domaine.

Des chatbots en santé mentale aux diagnostics des étages d’usine nécessitant une détection précise d’anomalies, les modèles compacts adaptés aux tâches ciblées peuvent systématiquement surpasser les systèmes généralistes. La raison en est que les plus grands systèmes portent souvent une capacité excédentaire pour le contexte spécifique. La force des SLM n’est pas seulement le calcul – elle est profondément contextuelle. Les modèles plus petits n’analysent pas le monde entier; Ils sont méticuleusement réglés pour résoudre pour un.

Cet avantage devient encore plus prononcé dans les environnements de bord, où le modèle doit agir rapidement et indépendamment. Des appareils comme les lunettes intelligentes, les scanners cliniques et les terminaux de point de vente ne bénéficient pas des latences cloud. Ils exigent des performances locales d’inférence et à disque, que les modèles compacts fournissent – permettant une réactivité en temps réel, en préservant confidentialité des données et simplifier l’infrastructure.

Mais peut-être plus important encore, contrairement aux modèles de grands langues (LLM), souvent confinés aux laboratoires d’un milliard de dollars, les modèles compacts peuvent être affinés et déployés pour ce qui pourrait être quelques milliers de dollars.

Et cette différence de coût redessine les limites de qui peut construire, réduisant la barrière aux entrepreneurs priorisant la vitesse, la spécificité et la proximité du problème.

L’avantage caché: vitesse sur le marché

Lorsque les modèles compacts entrent en jeu, le développement ne se contente pas d’accélérer – il se transforme. Les équipes passent de la planification séquentielle au mouvement adaptatif. Ils affinent plus rapidement, se déploient sur les infrastructures existantes et répondent en temps réel sans le goulot d’étranglement Ce système à grande échelle introduit.

Et ce type de réactivité reflète comment la plupart des fondateurs fonctionnent réellement: lancement du maigre, test délibérément et itérant en fonction de l’utilisation réelle, et non uniquement sur les prédictions de la feuille de route lointaines.

Ainsi, au lieu de valider les idées au cours des quartiers, les équipes valident en cycles. La boucle de rétroaction se resserre, les composés perspicaces et les décisions commencent à refléter où le marché tire réellement.

Au fil du temps, ce rythme itératif clarifie ce qui crée réellement de la valeur. Un poids léger déploiementmême à son stade le plus tôt, les surfaces signalent que les délais traditionnels s’obscuraient. L’utilisation révèle où les choses se cassent, où elles résonnent et où elles doivent s’adapter. Et comme les modèles d’utilisation prennent forme, ils apportent de la clarté à ce qui compte le plus.

Les équipes ne se concentrent pas par l’hypothèse, mais par l’exposition – répondant à ce que demande l’environnement d’interaction.

En rapport: De la Silicon Valley à partout – comment l’IA démocratise l’innovation et l’entrepreneuriat

Meilleure économie, accès plus large

Ce rythme ne change pas seulement l’évolution des produits; Il modifie cette infrastructure requise pour les soutenir.

Parce que le déploiement de modèles compacts localement – sur des processeurs ou des dispositifs de bord – supprime le poids des dépendances externes. Il n’est pas nécessaire d’appeler un modèle frontalière comme Openai ou Google pour chaque inférence ou brûlure calculée sur le recyclage des paramètres de milliards de milliards de dollars. Au lieu de cela, les entreprises retrouvent le contrôle architectural sur les coûts de calcul, le calendrier de déploiement et la façon dont les systèmes évoluent une fois en direct.

Il change également le énergie profil. Les modèles plus petits consomment moins. Ils réduisent les frais généraux du serveur, minimisent le flux de données inter-réseaux et permettent à plus de fonctionnalités d’IA de vivre là où elles sont réellement utilisées. Dans des environnements fortement réglementés – comme les soins de santé, la défense ou la finance – ce n’est pas seulement une victoire technique. C’est une voie de conformité.

Et lorsque vous additionnez ces changements, la logique de conception se retourne. Le coût et la confidentialité ne sont plus des compromis. Ils sont intégrés dans le système lui-même.

Les grands modèles peuvent fonctionner à l’échelle planétaire, mais les modèles compacts apportent une pertinence fonctionnelle pour les domaines où l’échelle se tenait autrefois. Pour de nombreux entrepreneurs, qui débloque une ouverture complètement nouvelle pour la construction.

Un changement de cas d’utilisation qui se produit déjà

Replika, par exemple, a construit un assistant émotionnel émotionnel léger qui a réalisé plus de 30 millions de téléchargements sans s’appuyer sur un LLM massif parce que leur objectif n’était pas de construire une plate-forme à usage général. Il s’agissait de concevoir une expérience profondément contextuelle réglée pour l’empathie et la réactivité dans un cas d’utilisation étroit et à fort impact.

Et la viabilité de ce déploiement est venue de l’alignement – la structure du modèle, la conception des tâches et le comportement de réponse ont été suffisamment façonnés pour correspondre à la nuance de l’environnement dans lequel elle est entrée. Cet ajustement lui a permis de s’adapter à mesure que les modèles d’interaction ont évolué, plutôt que de recalibrer après coup.

Écosystèmes ouverts comme Llama, Mistral Et le visage étreint facilite l’accès à ce type d’alignement. Ces plateformes offrent aux constructeurs des points de départ qui commencent près du problème, pas abstraits. Et cette proximité accélère l’apprentissage une fois les systèmes déployés.

En rapport: Microsoft Compact AI modèle PHI-4 relève des défis mathématiques

Une feuille de route pragmatique pour les constructeurs

Pour les entrepreneurs Bâtiment avec AI Aujourd’hui, sans accès à des milliards d’infrastructures, mon conseil est de considérer les modèles compacts non pas comme une contrainte, mais comme un point de départ stratégique qui offre un moyen de concevoir des systèmes reflétant où la valeur vit vraiment: dans la tâche, le contexte et la capacité de s’adapter.

Voici comment commencer:

  1. Définissez le résultat, pas l’ambition: Commencez par une tâche qui compte. Laissez le problème façonner le système, et non l’inverse.

  2. Construire avec ce qui est déjà aligné: Utilisez des familles de modèles comme l’étreinte Face, Mistral et Llama qui sont optimisées pour le réglage, l’itération et le déploiement au bord.

  3. Restez près du signal: Déployez où la rétroaction est visible et exploitable – sur dispositif, dans son contexte, assez proche pour évoluer en temps réel.

  4. Itérer comme infrastructure: Remplacez la planification linéaire par le mouvement. Laissez chaque libération aiguiser l’ajustement, et laissez l’utilisation – pas la feuille de route – conduire ce qui vient ensuite.

Parce que dans cette prochaine vague d’IA, comme je le vois, l’avantage n’appartiendra pas uniquement à ceux qui construisent les plus grands systèmes – il appartiendra à ceux qui construisent le le plus proche.

Le plus proche de la tâche. Le plus proche du contexte. Le plus proche du signal.

Et lorsque les modèles s’alignent étroitement avec l’endroit où la valeur est créée, la progression s’arrête en fonction de l’échelle. Cela commence en fonction de l’ajustement.




Source link