Publicado 26/11/2024 13:37

Anthropic lanza el Protocolo de contexto de modelos para facilitar la conexión de asistentes de IA a fuentes de datos

El nuevo Protocolo de Contexto de Modelo de Anthropic.
El nuevo Protocolo de Contexto de Modelo de Anthropic. - ANTHROPIC

   MADRID, 26 Nov. (Portaltic/EP) -

   Anthropic ha publicado el código abierto de su Protocolo de contexto de modelos (MCP por sus siglas en inglés), que permite conectar asistentes de Inteligencia Artificial (IA) a los sistemas donde se almacenan los datos, por ejemplo, repositorios de contenido, facilitando una conexión universal y, por tanto, ayudando a los modelos a ofrecer respuestas mejores y más relevantes.

   Las compañías tecnológicas continúan trabajando en el desarrollo de las capacidades de sus modelos de IA, de cara a lograr avances en el razonamiento y en la calidad de sus respuestas. Sin embargo, Anthropic ha advertido que "incluso los modelos más sofisticados" están limitados, en parte debido a su "aislamiento de los datos", que quedan relegados a sistemas de almacenamiento a los que los modelos no siempre tienen acceso.

   Esto se debe a que cada nueva fuente de datos, como son los repositorios de contenido, las herramientas empresariales o los entornos de desarrollo, requieren su propia implementación personalizada para que los modelos puedan acceder a su uso, lo que "dificulta la escalabilidad de los sistemas verdaderamente conectados".

   En este marco, de cara a ofrecer una solución y permitir que los asistentes de IA se puedan conectar a cualquier sistema de datos, Anthropic ha lanzado su Protocolo de contexto de modelos, con el que pretende ayudar a que los modelos de IA produzcan respuestas más elaboradas y más relevantes, para satisfacer las necesidades de los usuarios.

   En concreto, tal y como lo ha definido la compañía en un comunicado en su blog, se trata de un estándar universal y abierto desarrollado para conectar sistemas de IA con fuentes de datos, "reemplazando las integraciones fragmentadas con un protocolo único".

   Según ha detallado el director de relaciones de Claude Anthropic, Alex Albert, en una publicación en X (antigua Twitter), el MCP resuelve el "desafío central" de las aplicaciones de modelos grandes de lenguaje (LLM), como es "conectarlas a sus datos". Ahora, los desarrolladores pueden integrar el MCP con su herramienta de IA una única vez y, tras ello, conectar este sistema de IA con cualquier "fuente de datos en cualquier lugar", dado que este protocolo comparte "recursos, herramientas y avisos".

   Así, según han detallado desde Anthropic, la arquitectura de este protocolo es "sencilla", ya que los desarrolladores pueden exponer sus datos a través de servidores MCP o crear aplicaciones de IA que se conecten a estos servidores.

   Con todo ello, la compañía ya ha compartido servidores MCP prediseñados para sistemas empresariales como es el caso de Google Drive, Slack, GitHub, Postgres y Puppeteer, entre otros. Asimismo, algunos 'softwares' de codificación como es el caso de Replit, Codeium y Sourcegraph, ya están utilizando MCP para desarrollar sus agentes de IA.

   Actualmente, este protocolo está disponible para los clientes actuales de Claude for Work, que pueden empezar a probar los servidores MCP de forma local, es decir, conectando Claude a sistemas de datos internos, según ha detallado la tecnológica.

   Finalmente, Anthropic ha compartido su intención de continuar desarrollando MCP como un proyecto y ecosistema "colaborativo de código abierto", de cara a facilitar su uso para todos los desarrolladores y compañías.

Contador

Leer más acerca de: