La promesse du protocole de contexte modèle

Il y a beaucoup d’excitation autour du protocole de contexte du modèle (MCP) – comprend sa valeur et explorer les solutions potentielles qu’elle permet.
C’est l’âge de l’IA – il y a une énorme occasion pour les développeurs d’infuser les applications avec des solutions alimentées par des modèles génératifs d’IA et de grands / petits langues. L’IA moderne est également l’occasion de rationaliser et d’automatiser les flux de travail des développeurs pour une meilleure productivité. Cependant, regardez au-delà de la surface brillante et les fissures commencent à se montrer avec une IA générative d’aujourd’hui – le contexte et l’expertise.
Le Protocole de contexte modèle (MCP) promet des communications standardisées pour fournir aux modèles / agents d’IA des connaissances contextuelles profondes et renforcer la confiance dans l’exécution des tâches avec des outils personnalisés. Explorons.
Coffres sur le modèle d’IA
L’IA générative d’aujourd’hui est alimentée par des modèles de grands / petits langues. Ce sont des systèmes extrêmement puissants capables de comprendre le langage naturel humain pour tenir des conversations et répondre aux invites par des réponses d’une richesse de connaissances apparemment illimitée.
Propulsé par l’apprentissage non supervisé et les réseaux de neurones profonds, les modèles d’IA d’aujourd’hui peuvent être coûteux à héberger, mais le soutien sportif pour d’énormes quantités de paramètres et de traitement grâce à des charges de travail de tokenisation massives chaque seconde. La popularité et la puissance pure des modèles d’IA d’aujourd’hui témoignent de la distance avec l’IA.
Cependant, malgré toute l’intelligence, les modèles d’IA ont du mal avec quelques problèmes fondamentaux qui sont cuits par le design:
Les bases de connaissances des modèles AI sont horodatrices. Il y a eu un moment dans le temps où le modèle d’IA concerné a rampé sur Internet pour ingérer des données. Au-delà de ce point, le modèle d’IA n’est formé à rien de nouveau. Bien sûr, il existe des techniques telles que la génération augmentée (RAG) de récupération (RAG) aux modèles d’IA, mais le chiffon est souvent coûteux et connu pour avoir des problèmes d’évolutivité.
Les modèles AI ne sont pas faire rien. Les modèles d’IA ne sont tout simplement pas conçus pour effectuer des calculs ou effectuer des actions. Ce sont de puissants systèmes de correspondance / reconnaissance de motifs probabilistes, mais pas destinés à effectuer des tâches. Pour vraiment stimuler notre productivité, nous avons peut-être besoin de l’IA pour faire des choses concrets pour nous – certaines à travers l’automatisation, d’autres avec une supervision humaine.
Agents d’IA
La prochaine grande étape dans l’évolution de l’IA est déjà là – parlez-vous aux agents de l’IA. Un agent d’IA est essentiellement un système capable d’effectuer des tâches en réponse aux invites humaines. Les actions peuvent être autonomes si elles sont autorisées ou ont besoin d’une autorisation humaine.
Les agents de l’IA exploitent la puissance de traitement du langage naturel et la richesse de la connaissance des modèles de langage de grande instance de l’IA. Mais en plus des connaissances, les agents de l’IA ont accès à des outils spécialisés pour effectuer des tâches. Les agents de l’IA agissent souvent comme un superviseur – se transformant dans des modèles d’IA pour la connaissance, concevant un flux de travail et tirant parti des outils disponibles pour effectuer une action.
Les workflows d’agence AI changent le jeu. Nous ne sommes plus contraints par des réponses suggérées – nous pouvons réellement avoir l’IA faire des choses concrètes pour nous. Cependant, le contexte est toujours important et pour nous d’avoir confiance en automatisation, les tâches sont mieux effectuées par des systèmes qui sont des experts dans les domaines respectifs. Il doit y avoir un moyen pour les systèmes disparates de parler une langue commune pour fournir le contexte et les outils aux agents de l’IA. La réponse populaire est MCP.
Qu’est-ce que MCP?
Le Protocole de contexte du modèle (MCP) est un protocole d’industrie ouverte qui standardrise la façon dont les applications fournissent le contexte aux LLM de l’IA – les développeurs peuvent le considérer comme un langage commun pour l’échange d’informations entre les modèles / agents d’IA.
Développé par Anthropic, MCP vise à fournir un moyen standardisé de connecter les modèles d’IA à différentes sources de données, outils et informations non publiques. Le but est de fournir des informations contextuelles profondes / API / données aux modèles / agents d’IA. Les services MCP prennent également en charge l’authentification / autorisation robuste pour exécuter des tâches spécifiques au nom des utilisateurs.
Alors que les premiers jours, il y a beaucoup d’excitation dans les grandes technologies autour de MCP. Avec une spécification stable flexible, MCP peut jouer un grand rôle dans la normalisation de l’échange d’informations entre les modèles d’IA et diverses sources de données pour les réponses / usage d’outillage sur l’IA fondées.
Les spécifications MCP fonctionnent essentiellement sur des architectures client-serveur simples, où une application hôte peut se connecter à plusieurs serveurs, chacun apportant ses propres outils avec une expertise de domaine spécifique. Avec les protocoles MCP standardisés, les développeurs ont la possibilité d’exposer des API contextuelles profondément, de la documentation, des enregistrements de base de données et tout autre type d’informations sur le domaine personnalisables – tous ont fait surface via des serveurs MCP pour les clients à consommer / levier.
Image gracieuseté MCP Docs
Pourquoi MCP?
Alors que nous obtenons notre diplôme pour utiliser davantage de workflows d’agents d’IA, on peut voir comment MCP peut aider à contourner deux des lacunes des modèles d’IA traditionnels:
- Avec des protocoles standardisés, les agents de l’IA n’ont pas besoin de dépendre des connaissances horodatrices. La recherche d’informations pertinentes est aussi simple qu’une recherche Web dans l’instant.
- Avec des outils spécialisés disponibles, les agents d’IA peuvent prendre des mesures concrètes en réponse aux invites utilisateur. MCP fournit le pont pour apporter les connaissances du domaine et le savoir-faire des tâches.
Dans MCP Land, il y a des termes communs qui sont souvent lancés:
- UN hôte est une application qui souhaite tirer parti de MCP pour accéder à des données / outils spécialisés. Exemples – Code VS, Visual Studio, Claude Desktop, Cursor AI et autres éditeurs / ides de codage.
- Un Client MCP est essentiellement le cheval de bataille qui communique 1: 1 avec les serveurs MCP. Exemples – Github Copilot, Chatgpt, Tabnine et plus encore.
- Un Serveur MCP est un programme / point final hébergé qui expose des capacités spécifiques via les communications MCP standardisées.
Tout le monde n’aura pas besoin de faire un hôte ou un client MCP. Le plus grand avantage de la standardisation du MCP est la démocratisation de l’accès à des outils spécialisés via des serveurs MCP aux agents de l’IA.
Les agents d’IA d’aujourd’hui ont accès au traitement du langage naturel et à un référentiel de connaissances des modèles d’IA, mais ils commencent également à avoir une richesse d’outils alimentés par MCP à leur disposition. Les flux de travail agentiques n’ont pas besoin d’expertise dans les tâches contextuelles. Les entreprises qui fournissent des services spécialisés peuvent faire surface leurs outils via MCP pour que les agents de l’IA puissent invoquer.
Considérations MCP
Pour les développeurs qui cherchent à construire des serveurs / clients MCP, il y a beaucoup d’aide – il n’a pas besoin de réinventer la roue.
- Il y a des abstractions via SDKS pour les langages de programmation populaires, comme C #, Python, TypeScript, Java et Kotlin.
- La sécurité est bien pensée. Les serveurs MCP seront souvent en surface les connaissances du domaine et les tâches spécifiques qui doivent identifier / accorder un accès aux utilisateurs. Les techniques d’authentification / d’autorisation standard s’appliquent au MCP et le contrôle d’accès se fait en toute sécurité avec des jetons / clés aux services spécifiés.
- L’outillage pour travailler avec MCP est bien établi. Il existe un inspecteur MCP pour essayer les choses localement, ainsi que des techniques de journalisation du serveur pour surveiller les performances / erreurs.
- Les outils de développeur populaires comme VS Code / Cursor / Claude Desktop ont des clients MCP intégrés, ce qui facilite l’intégration avec les serveurs MCP.
Inspirations MCP
Alors que les développeurs cherchent à construire plus de serveurs / clients MCP, un peu d’inspiration ne fait jamais de mal – grâce à de nombreux exemples qui présentent les capacités et la polyvalence de MCP.
- Références MCP: Le site Web MCP a de longues listes d’exemples open source serveurs et clients—Ces incluent des implémentations de référence, des serveurs tiers et des initiatives communautaires.
- Une merveilleuse liste de serveurs / clients MCP est mcp.so—Une collection organisée d’implémentations MCP de haute qualité.
- Une autre collection de serveurs MCP impressionnants est McPServers.org—Une collection de références des implémentations MCP de différents types.
MCP vise à normaliser la façon dont les applications fournissent un contexte aux modèles et outils d’IA aux agents de l’IA. L’avènement de MCP cherche à permettre aux flux de travail agentiques d’avoir un accès sécurisé à des tâches profondément contextuelles et, à son tour, à des flux de travail IA qui sont plus bénéfiques pour tout le monde. En savoir plus sur la construction avec MCP à venir avec un contenu à venir – en dehors et en avant. Bravo, développeurs!
Source link