Um dos maiores desafios em fazer prompts ¨¦ garantir que a ferramenta de IA tenha acesso a todo o contexto relevante para a tarefa. Muitas vezes, esse contexto j¨¢ existe nos sistemas que usamos todos os dias: wikis, rastreadores de problemas, bancos de dados ou sistemas de observabilidade. A integra??o perfeita entre as ferramentas de IA e essas fontes de informa??o pode melhorar significativamente a qualidade dos resultados gerados pela IA.
O (MCP), um padr?o aberto lan?ado pela Anthropic, fornece um framework padronizado para a integra??o de aplica??es LLM com fontes de dados e ferramentas externas. Ele define servidores e clientes MCP, em que os servidores acessam as fontes de dados e os clientes integram e usam esses dados para aprimorar os prompts. Muitos assistentes de c¨®digo j¨¢ implementaram integra??o com o MCP, o que lhes permite atuar como clientes do MCP.
Os servidores MCP podem ser executados de duas maneiras: localmente, como um processo Python ou Node em execu??o no computador das usu¨¢rias, ou remotamente, como um servidor ao qual o cliente MCP se conecta via SSE (embora n?o tenhamos visto ainda nenhum uso da variante de servidor remoto). Atualmente, o MCP ¨¦ usado principalmente da primeira forma, com desenvolvedoras clonando de de c¨®digo aberto. Embora os servidores executados localmente ofere?am uma maneira simples de evitar depend¨ºncias de terceiros, eles permanecem menos acess¨ªveis a usu¨¢rias n?o t¨¦cnicas e apresentam desafios como governan?a e gerenciamento de atualiza??es. Dito isso, ¨¦ f¨¢cil imaginar como esse padr?o poderia evoluir para um ecossistema mais maduro e amig¨¢vel no futuro.

