Anthropic annonce un protocole open Source pour connecter une application LLM de manière standardisée à des sources de données « contextuelles », fichiers, réponses API, etc.
Anthropic lance un standard open Source appelé MCP (pour Multi Context Protocol) permettant aux LLM d’accéder aux données contextuelles. Un SDK permet aux développeurs de créer des serveurs MCP qui font office de connecteurs vers diverses sources de données : fichiers informatiques, bases de données, fichiers journaux, environnement de développement, réponses API.
Via ces serveurs MCP, l’application LLM (Claude ou autre) est capable de se connecter aux ressources pour lire les informations et s’abonner aux mises à jour. Anthropic recommande naturellement de veiller à ce qu’un accès approprié aux ressources soit mis en œuvre et audité.
La solution pourrait par exemple permettre d’interroger un PDF sur l’ordinateur depuis le chat ou de fournir du code Github sans avoir à copier-coller. À ce titre, il s’inscrit dans la même lignée que l’outil de contrôle informatique dévoilé par le même Anthropic en octobre.
« Que vous construisiez un IDE basé sur l’IA, amélioriez une interface de discussion ou créiez des flux de travail d’IA personnalisés, MCP fournit un moyen standardisé de connecter les LLM au contexte dont ils ont besoin », explique Anthropic dans sa documentation.
Pour faciliter la tâche des développeurs, la société propose des serveurs MCP prédéfinis pour diverses applications – Google Drive, Slack, GitHub, Git, Postgres et Puppeteer – ainsi qu’un référentiel. Il annonce également la prise en charge du serveur MCP pour les applications de bureau Claude. Reste à savoir si OpenAI, Google et consorts adopteront le standard…