ZAX ZAX
Inteligencia Artificial 18 min de lectura

Anthropic dona el Model Context Protocol (MCP) a la Agentic AI Foundation bajo la Linux Foundation

Equipo ZAX
Representación visual de redes globales e inteligencia artificial - Agentic AI Foundation y Model Context Protocol

El 7 de abril de 2026 marca un hito histórico en el desarrollo de la inteligencia artificial agentica. Anthropic ha anunciado oficialmente la donación del Model Context Protocol (MCP) a la recién establecida Agentic AI Foundation, una nueva entidad bajo el paraguas de la prestigiosa Linux Foundation. Este movimiento estratégico transforma un protocolo propietario en un estándar abierto e independiente, sentando las bases para una nueva era de interoperabilidad entre agentes de IA y las herramientas que utilizan.

El impacto de esta decisión es difícil de sobreestimar. El Model Context Protocol ha alcanzado cifras extraordinarias desde su lanzamiento: 97 millones de descargas mensuales de SDK y más de 10.000 servidores MCP activos desplegados en producción a nivel mundial. Estas métricas demuestran que MCP ya se ha convertido de facto en el estándar de la industria para conectar modelos de lenguaje con fuentes de datos externas, APIs y herramientas especializadas.

La creación de la Agentic AI Foundation cuenta con el respaldo de los principales actores de la industria tecnológica. Como cofundadores, Anthropic se une a Block (anteriormente Square) y nada menos que OpenAI, el creador de ChatGPT y principal competidor de Anthropic en el mercado de modelos de lenguaje. Esta alianza entre competidores directos subraya la importancia crítica de establecer estándares abiertos para el futuro de la IA agentica.

Entre los apoyadores de la fundación encontramos un verdadero quién es quién de la industria tecnológica: Google, Microsoft, Amazon Web Services (AWS), Cloudflare y Bloomberg. Este respaldo masivo garantiza que MCP se desarrollará de manera neutral, independiente y con la participación de toda la comunidad global de desarrolladores.

¿Qué es el Model Context Protocol (MCP)?

El Model Context Protocol, conocido por sus siglas MCP, es un protocolo de comunicación abierto diseñado específicamente para estandarizar la forma en que los modelos de lenguaje grandes (LLMs) interactúan con fuentes de datos externas, herramientas y sistemas. Según la documentación oficial, MCP proporciona una interfaz universal que permite a los agentes de IA acceder a información contextual de manera segura, eficiente y estandarizada.

Para entender la importancia de MCP, imaginemos el problema que resuelve. Antes de MCP, cada desarrollador que quería conectar un modelo de lenguaje con una base de datos, una API, un sistema de archivos o cualquier otra herramienta externa, tenía que crear una integración personalizada desde cero. Este enfoque fragmentado generaba código duplicado, vulnerabilidades de seguridad inconsistentes, y una enorme carga de mantenimiento cuando las APIs cambiaban.

MCP resuelve este problema de raíz estableciendo un contrato claro entre los "servidores MCP" (que exponen capacidades y datos) y los "clientes MCP" (típicamente modelos de lenguaje o aplicaciones que los utilizan). Este diseño cliente-servidor, inspirado en protocolos web probados como HTTP y GraphQL, permite una separación limpia de responsabilidades y facilita enormemente el desarrollo de ecosistemas de herramientas interoperables.

"El Model Context Protocol representa nuestra visión de cómo debería funcionar la IA agentica: abierta, interoperable y construida sobre estándares que pertenezcan a toda la comunidad. Al donar MCP a la Linux Foundation, estamos renunciando al control para garantizar que este protocolo evolucione de manera neutral y sirva al bien común."

— Dario Amodei, CEO de Anthropic

Arquitectura técnica de MCP

La arquitectura de MCP se basa en tres componentes principales que trabajan en conjunto para proporcionar una experiencia de integración fluida y segura. Comprender estos componentes es esencial para aprovechar al máximo las capacidades del protocolo.

  • Servidores MCP: componentes que exponen recursos, herramientas y prompts a los clientes. Cada servidor define qué capacidades ofrece mediante un esquema estandarizado, permitiendo que cualquier cliente compatible las descubra y utilice automáticamente.
  • Clientes MCP: aplicaciones o modelos de lenguaje que consumen los servicios expuestos por los servidores. Los clientes pueden descubrir servidores, negociar capacidades, y ejecutar operaciones de manera estandarizada.
  • Protocolo de transporte: la capa de comunicación que permite el intercambio de mensajes entre clientes y servidores. MCP soporta múltiples transportes incluyendo stdio, HTTP con Server-Sent Events, y WebSockets para comunicación bidireccional en tiempo real.

Lo que hace único a MCP es su enfoque en la descubribilidad y la seguridad. Cada servidor MCP publica un manifiesto que describe sus capacidades, permitiendo que los clientes entiendan automáticamente qué operaciones están disponibles, qué parámetros requieren, y qué tipo de respuestas esperan. Este diseño orientado a contratos facilita la creación de ecosistemas de herramientas que funcionan together sin necesidad de configuración manual extensiva.

La Agentic AI Foundation: una nueva era de gobernanza abierta

La creación de la Agentic AI Foundation representa mucho más que un cambio de titularidad para MCP. Es el establecimiento de una estructura de gobernanza neutral e independiente que garantiza que los estándares críticos para la IA agentica evolucionen de manera abierta, transparente y al servicio de toda la comunidad global de desarrolladores.

Bajo el paraguas de la Linux Foundation, la Agentic AI Foundation hereda décadas de experiencia en gobernanza de proyectos de código abierto. La Linux Foundation es responsable de proyectos tan cruciales como Linux, Kubernetes, Node.js, y cientos de otros proyectos que constituyen la infraestructura de la tecnología moderna. Esta experiencia es invaluable para asegurar que MCP y los demás proyectos de la fundación se desarrollen con las mejores prácticas de la industria.

Cofundadores: una alianza sin precedentes

Lo más notable de la Agentic AI Foundation es la composición de sus cofundadores. Anthropic, Block y OpenAI representan tres de las empresas más influyentes en el ecosistema de IA, y su colaboración señala un reconocimiento colectivo de que los estándares abiertos benefician a todos los participantes del mercado.

Anthropic
Creador de Claude y MCP

Desarrolló el Model Context Protocol original y lo dona a la fundación. También contribuye su experiencia en seguridad de IA y alineación de modelos.

Block (Square)
Contribuye con Goose

Aporta Goose, un framework de agentes de IA de código abierto diseñado para automatización de tareas de desarrollo y operaciones.

OpenAI
Contribuye AGENTS.md

Aporta AGENTS.md, una especificación para describir comportamientos y capacidades de agentes de IA de forma estandarizada.

Apoyadores de la industria

Más allá de los cofundadores, la Agentic AI Foundation cuenta con el respaldo de gigantes tecnológicos que representan prácticamente todos los segmentos de la industria del software y la nube. Este apoyo masivo garantiza la relevancia y adopción universal del protocolo.

  • Google: el gigante de las búsquedas y creador de Gemini respalda MCP como estándar de interoperabilidad para agentes de IA.
  • Microsoft: con su inversión masiva en IA a través de Azure y Copilot, Microsoft aporta experiencia en ecosistemas empresariales.
  • Amazon Web Services (AWS): el líder en infraestructura cloud aporta su experiencia en servicios escalables y seguros.
  • Cloudflare: especialista en edge computing y seguridad web, crucial para el despliegue global de servidores MCP.
  • Bloomberg: representa el sector financiero y aporta casos de uso empresariales de alta exigencia.

Proyectos fundadores: MCP, Goose y AGENTS.md

La Agentic AI Foundation nace con tres proyectos fundadores que, en conjunto, proporcionan una base completa para el desarrollo de agentes de IA interoperables y seguros. Cada proyecto aborda un aspecto diferente del ecosistema agentico.

Model Context Protocol (MCP) - Anthropic

MCP es el proyecto central de la fundación y establece el estándar de comunicación entre modelos de lenguaje y herramientas externas. Según datos de GitHub Blog, MCP ya cuenta con:

97M+
Descargas mensuales de SDK
10.000+
Servidores MCP activos
6+
Plataformas principales con soporte

El SDK de MCP está disponible en múltiples lenguajes de programación incluyendo TypeScript/JavaScript, Python, Rust, Go y Java, facilitando la integración en prácticamente cualquier stack tecnológico. La documentación extensiva y los ejemplos de código hacen que comenzar con MCP sea accesible tanto para desarrolladores individuales como para grandes equipos empresariales.

Goose - Block

Goose es un framework de agentes de IA de código abierto desarrollado por Block (la empresa matriz de Square y Cash App). Diseñado originalmente para automatizar tareas de desarrollo y operaciones internas, Goose proporciona una arquitectura extensible para construir agentes que pueden razonar, planificar y ejecutar tareas complejas de manera autónoma.

Lo que distingue a Goose de otros frameworks de agentes es su enfoque en la seguridad y la auditabilidad. Cada acción que toma un agente Goose queda registrada con contexto completo, facilitando la depuración, el cumplimiento normativo y la mejora continua del sistema. Esta transparencia es crucial para despliegues empresariales donde la confianza y el control son requisitos no negociables.

AGENTS.md - OpenAI

AGENTS.md es una especificación contribuida por OpenAI que proporciona una forma estandarizada de describir el comportamiento, capacidades y limitaciones de agentes de IA. Similar a cómo robots.txt comunica instrucciones a los crawlers web, AGENTS.md permite a los desarrolladores declarar cómo debe comportarse un agente cuando interactúa con su sistema o datos.

Esta especificación es particularmente importante para la gobernanza de agentes a escala. A medida que los agentes de IA se vuelven más autónomos y capaces, AGENTS.md proporciona un mecanismo para establecer límites, permisos y expectativas de comportamiento de manera declarativa y estandarizada.

Soporte en las principales plataformas de IA

Una de las pruebas más contundentes del éxito de MCP es su adopción generalizada por las principales plataformas de IA del mercado. Tanto asistentes conversacionales como entornos de desarrollo han integrado soporte nativo para el protocolo, creando un ecosistema verdaderamente interoperable.

Plataformas con soporte MCP nativo:

ChatGPT (OpenAI)
Claude (Anthropic)
Gemini (Google)
Cursor (IDE con IA)
Microsoft Copilot
VS Code (Microsoft)

Esta adopción multiplataforma significa que los desarrolladores pueden crear servidores MCP una sola vez y desplegarlos en cualquier plataforma compatible. Un servidor MCP que proporciona acceso a una base de datos, por ejemplo, funcionará automáticamente con ChatGPT, Claude, Gemini y cualquier otro cliente MCP sin necesidad de adaptaciones específicas.

Para los usuarios finales, esto se traduce en una experiencia consistente independientemente de qué asistente de IA prefieran utilizar. Las herramientas y datos que configuran para un asistente estarán disponibles de la misma forma en cualquier otro, eliminando el vendor lock-in y facilitando la experimentación con diferentes modelos y plataformas.

Lo que significa MCP para los desarrolladores

La transición de MCP a la Linux Foundation tiene implicaciones profundas para los desarrolladores de todo el mundo. Según el análisis de The New Stack, este movimiento representa un cambio de paradigma en cómo se construirán las aplicaciones de IA en los próximos años.

Estandarización y portabilidad

Con MCP como estándar abierto bajo la Linux Foundation, los desarrolladores pueden invertir con confianza en la construcción de servidores MCP sabiendo que su trabajo será compatible con el ecosistema a largo plazo. La gobernanza neutral garantiza que el protocolo no evolucionará de maneras que favorezcan a una empresa sobre otras, protegiendo las inversiones de desarrollo de los participantes del ecosistema.

Reducción de complejidad

Antes de MCP, conectar un modelo de lenguaje con herramientas externas requería implementaciones personalizadas para cada combinación de modelo y herramienta. Con MCP, esta complejidad se reduce dramáticamente: un único servidor MCP puede servir a múltiples clientes, y un único cliente puede conectarse a múltiples servidores sin código adicional.

  • Write once, run anywhere: un servidor MCP escrito una vez funciona con cualquier cliente compatible, incluyendo ChatGPT, Claude, Gemini, Cursor y VS Code.
  • Ecosistema de herramientas: más de 10.000 servidores MCP activos significan que probablemente ya existe una integración para tu caso de uso, ahorrando semanas o meses de desarrollo.
  • SDK multiplataforma: con SDKs disponibles en TypeScript, Python, Rust, Go y Java, puedes usar el lenguaje con el que tu equipo es más productivo.
  • Seguridad estandarizada: MCP incluye mecanismos de autenticación y autorización integrados, reduciendo el riesgo de vulnerabilidades en integraciones personalizadas.

Oportunidades de negocio

La estandarización de MCP crea nuevas oportunidades de negocio significativas. Empresas especializadas pueden crear y vender servidores MCP premium que proporcionen acceso a datos propietarios, herramientas especializadas o funcionalidades avanzadas. Este modelo similar al de plugins o extensiones ha demostrado ser enormemente exitoso en ecosistemas como WordPress, Shopify y VS Code.

Comenzando con MCP: guía práctica

Implementar MCP en tu proyecto es sorprendentemente sencillo gracias a los SDKs bien documentados disponibles en múltiples lenguajes. A continuación, mostramos ejemplos básicos de cómo crear un servidor y cliente MCP.

Servidor MCP básico (TypeScript):

import { Server } from "@modelcontextprotocol/sdk/server";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio";

// Crear servidor MCP
const server = new Server({
  name: "mi-servidor-mcp",
  version: "1.0.0",
});

// Registrar una herramienta
server.setRequestHandler("tools/call", async (request) => {
  if (request.params.name === "obtener_clima") {
    const ciudad = request.params.arguments.ciudad;
    // Lógica para obtener el clima
    return {
      content: [{
        type: "text",
        text: `El clima en ${ciudad} es soleado, 22°C`
      }]
    };
  }
});

// Listar herramientas disponibles
server.setRequestHandler("tools/list", async () => {
  return {
    tools: [{
      name: "obtener_clima",
      description: "Obtiene el clima actual de una ciudad",
      inputSchema: {
        type: "object",
        properties: {
          ciudad: { type: "string", description: "Nombre de la ciudad" }
        },
        required: ["ciudad"]
      }
    }]
  };
});

// Iniciar servidor con transporte stdio
const transport = new StdioServerTransport();
await server.connect(transport);

Instalación del SDK:

# TypeScript/JavaScript
npm install @modelcontextprotocol/sdk

# Python
pip install mcp

# Verificar instalación
npx mcp-inspector

El repositorio oficial de MCP en GitHub contiene documentación exhaustiva, ejemplos adicionales, y un directorio creciente de servidores MCP de código abierto que puedes utilizar como referencia o integrar directamente en tus proyectos.

Seguridad y gobernanza en la era de los agentes

A medida que los agentes de IA se vuelven más capaces y autónomos, las consideraciones de seguridad se vuelven críticas. La Agentic AI Foundation ha hecho de la seguridad una prioridad desde el primer día, estableciendo grupos de trabajo dedicados a abordar los desafíos únicos que presenta la IA agentica.

MCP incluye varios mecanismos de seguridad integrados que protegen tanto a los proveedores de herramientas como a los usuarios finales. El sistema de capacidades permite a los servidores declarar exactamente qué operaciones soportan, y los clientes pueden solicitar solo los permisos necesarios para su funcionamiento. Este principio de mínimo privilegio reduce la superficie de ataque y limita el daño potencial de vulnerabilidades.

  • Autenticación y autorización: MCP soporta múltiples esquemas de autenticación incluyendo tokens OAuth, API keys, y certificados mTLS para comunicaciones seguras.
  • Sandboxing de operaciones: los servidores pueden ejecutar operaciones en entornos aislados, limitando el acceso a recursos del sistema y previniendo escaladas de privilegios.
  • Auditoría completa: todas las interacciones MCP pueden ser registradas para análisis posterior, facilitando la detección de anomalías y el cumplimiento normativo.
  • Rate limiting: mecanismos integrados para prevenir abusos y garantizar la disponibilidad de los servicios ante picos de demanda o ataques de denegación de servicio.

El futuro de la IA agentica

La creación de la Agentic AI Foundation y la estandarización de MCP representan un momento de inflexión para la industria de la inteligencia artificial. Estamos presenciando la transición de modelos de lenguaje que simplemente responden preguntas a agentes verdaderamente autónomos capaces de realizar tareas complejas en el mundo real.

Los analistas de la industria predicen que para 2027, más del 50% de las aplicaciones empresariales incorporarán capacidades agenticas, y MCP será la infraestructura que las conecte. Esta visión de agentes de IA interoperables que colaboran entre sí y con humanos para resolver problemas complejos está más cerca de la realidad de lo que muchos imaginan.

"La Agentic AI Foundation representa el compromiso colectivo de la industria de construir el futuro de la IA de manera abierta y responsable. Los estándares que desarrollemos aquí definirán cómo los agentes de IA interactúan con el mundo durante las próximas décadas. Es una responsabilidad que nos tomamos muy en serio."

— Jim Zemlin, Director Ejecutivo de la Linux Foundation

Las aplicaciones prácticas que habilitará esta infraestructura son casi ilimitadas. Agentes de investigación que pueden navegar por bases de datos científicas, analizar papers y sintetizar hallazgos. Agentes de desarrollo que pueden escribir, probar y desplegar código con supervisión mínima. Agentes de atención al cliente que pueden resolver problemas complejos accediendo a múltiples sistemas empresariales. Agentes financieros que pueden analizar mercados, ejecutar operaciones y gestionar portafolios.

Hoja de ruta de la fundación

La Agentic AI Foundation ha publicado una hoja de ruta ambiciosa para los próximos 18 meses. Entre las prioridades se encuentran:

  • MCP 2.0: una revisión mayor del protocolo con soporte mejorado para streaming, transacciones multi-paso, y comunicación entre agentes.
  • Registro de servidores: un directorio centralizado y curado de servidores MCP verificados para facilitar el descubrimiento y la confianza.
  • Certificación de conformidad: un programa de certificación para validar que implementaciones cumplen con la especificación MCP.
  • Integraciones enterprise: conectores oficiales para sistemas empresariales populares como Salesforce, SAP, Oracle y ServiceNow.

Conclusión: un paso histórico hacia la IA abierta

La donación del Model Context Protocol a la Agentic AI Foundation representa mucho más que una transferencia de propiedad intelectual. Es una declaración de principios sobre cómo debe desarrollarse la inteligencia artificial: de manera abierta, colaborativa y al servicio de toda la humanidad.

Anthropic ha demostrado con esta decisión que entiende que el éxito a largo plazo de la IA agentica depende de estándares abiertos que permitan la innovación distribuida. Al reunir a competidores como OpenAI, Block y Google bajo un mismo paraguas de gobernanza neutral, la fundación está sentando las bases para un ecosistema verdaderamente interoperable.

Para los desarrolladores, empresas y usuarios finales, esto significa más opciones, menos vendor lock-in, y acceso a un ecosistema creciente de herramientas y capacidades. Los 97 millones de descargas mensuales y los más de 10.000 servidores activos son solo el comienzo de lo que promete ser una revolución en cómo interactuamos con la inteligencia artificial.

El futuro de la IA es agentico, abierto e interoperable. Y gracias a la Agentic AI Foundation y el Model Context Protocol, ese futuro ya está aquí.

Puntos clave del artículo:

  • • Anthropic dona el Model Context Protocol (MCP) a la nueva Agentic AI Foundation bajo la Linux Foundation.
  • • MCP alcanza 97 millones de descargas mensuales de SDK y más de 10.000 servidores activos.
  • • Cofundadores: Anthropic, Block (Square) y OpenAI unen fuerzas para establecer estándares abiertos.
  • • Apoyadores: Google, Microsoft, AWS, Cloudflare y Bloomberg respaldan la iniciativa.
  • • Proyectos fundadores: MCP (Anthropic), Goose (Block) y AGENTS.md (OpenAI).
  • • Soporte nativo en ChatGPT, Claude, Gemini, Cursor, Microsoft Copilot y VS Code.
  • • La gobernanza neutral de la Linux Foundation garantiza el desarrollo abierto y transparente del protocolo.
ZAX

Equipo ZAX

Expertos en desarrollo web e inteligencia artificial aplicada

Artículos relacionados

¿Quieres implementar MCP en tu proyecto?

Nuestro equipo de expertos puede ayudarte a integrar el Model Context Protocol y construir agentes de IA personalizados para tu negocio.

Consultar con nuestros expertos