Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Apr 02, 2025
Apr 2025
Avalie ?

Um dos maiores desafios em fazer prompts ¨¦ garantir que a ferramenta de IA tenha acesso a todo o contexto relevante para a tarefa. Muitas vezes, esse contexto j¨¢ existe nos sistemas que usamos todos os dias: wikis, rastreadores de problemas, bancos de dados ou sistemas de observabilidade. A integra??o perfeita entre as ferramentas de IA e essas fontes de informa??o pode melhorar significativamente a qualidade dos resultados gerados pela IA.

O (MCP), um padr?o aberto lan?ado pela Anthropic, fornece um framework padronizado para a integra??o de aplica??es LLM com fontes de dados e ferramentas externas. Ele define servidores e clientes MCP, em que os servidores acessam as fontes de dados e os clientes integram e usam esses dados para aprimorar os prompts. Muitos assistentes de c¨®digo j¨¢ implementaram integra??o com o MCP, o que lhes permite atuar como clientes do MCP.

Os servidores MCP podem ser executados de duas maneiras: localmente, como um processo Python ou Node em execu??o no computador das usu¨¢rias, ou remotamente, como um servidor ao qual o cliente MCP se conecta via SSE (embora n?o tenhamos visto ainda nenhum uso da variante de servidor remoto). Atualmente, o MCP ¨¦ usado principalmente da primeira forma, com desenvolvedoras clonando de de c¨®digo aberto. Embora os servidores executados localmente ofere?am uma maneira simples de evitar depend¨ºncias de terceiros, eles permanecem menos acess¨ªveis a usu¨¢rias n?o t¨¦cnicas e apresentam desafios como governan?a e gerenciamento de atualiza??es. Dito isso, ¨¦ f¨¢cil imaginar como esse padr?o poderia evoluir para um ecossistema mais maduro e amig¨¢vel no futuro.

Inscreva-se para receber a newsletter do Technology Radar

?

?

Seja assinante

?

?

Visite nosso arquivo para acessar os volumes anteriores