Uno de los mayores desaf¨ªos relacionados al prompting (o interacci¨®n con IA a trav¨¦s de lenguaje natural) es garantizar que la herramienta de IA tenga acceso a todo el contexto relevante para la tarea. Frecuentemente este contexto existe dentro de los sistemas que utilizamos en nuestro d¨ªa a d¨ªa: wikis, aplicaciones de gesti¨®n de tareas, bases de datos o sistemas de observabilidad. La integraci¨®n fluida entre las herramientas de IA y estas fuentes de informaci¨®n puede mejorar significativamente la calidad de los resultados generados por la IA. El (MCP), un est¨¢ndar abierto publicado por Anthropic, proporciona un marco de trabajo estandarizado para integrar aplicaciones LLM con fuentes de datos y herramientas externas. Define clientes y servidores MCP, donde los servidores acceden a las fuentes de datos y los clientes integran y usan estos datos para mejorar las solicitudes. Muchos asistentes de c¨®digo ya han implementado la integraci¨®n de MCP, permiti¨¦ndoles actuar como clientes MCP. Los servidores MCP pueden ejecutarse de dos maneras: localmente, como procesos Python o Node que se ejecutan en la m¨¢quina del usuario, o de forma remota, como un servidor al que el cliente MCP se conecta v¨ªa SSE (aunque todav¨ªa no hemos visto ning¨²n uso de la variante de servidor remoto). Actualmente, MCP se usa principalmente de la primera manera, con desarrolladores(as) clonando open-source del . Si bien los servidores locales ofrecen una forma sencilla de evitar dependencias de terceros, siguen siendo menos accesibles para usuarios no t¨¦cnicos e introducen desaf¨ªos tales como la gesti¨®n de actualizaciones y la gobernanza. Dicho esto, resulta sencillo imaginar c¨®mo este est¨¢ndar podr¨ªa evolucionar hacia un ecosistema m¨¢s maduro y accesible para sus usuarios en el futuro.

