Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Apr 02, 2025
Apr 2025
Evite ?

As organiza??es continuam cautelosas em rela??o aos assistentes de programa??o com IA de terceiros, especialmente devido a preocupa??es com a confidencialidade do c¨®digo. Como resultado, muitas desenvolvedoras est?o considerando o uso de assistentes de programa??o locais ¡ª IAs que rodam inteiramente em suas m¨¢quinas ¡ª eliminando a necessidade de enviar c¨®digo para servidores externos. No entanto, os assistentes locais ainda ficam atr¨¢s das vers?es baseadas na nuvem, que utilizam modelos maiores e mais avan?ados. Mesmo em m¨¢quinas de alto desempenho, os modelos menores continuam apresentando limita??es. Observamos que eles t¨ºm dificuldades com prompts complexos, n?o possuem uma janela de contexto suficientemente grande para problemas mais amplos e, muitas vezes, n?o conseguem ativar integra??es de ferramentas ou chamadas de fun??es. Essas capacidades s?o especialmente cruciais para os workflows baseados em agentes, que representam o estado da arte na assist¨ºncia ¨¤ programa??o atualmente.

Portanto, embora seja importante ter expectativas moderadas, algumas funcionalidades ainda s?o vi¨¢veis localmente. Algumas IDEs populares agora incorporam modelos menores em seus recursos principais, como a conclus?o preditiva de c¨®digo do Xcode e a . Al¨¦m disso, LLMs que podem ser executados localmente, como o , representam um avan?o para sugest?es inline locais e o manuseio de consultas simples de programa??o. Voc¨º pode testar essas capacidades com o Continue, que suporta a integra??o de modelos locais por meio de runtimes como o Ollama.

Inscreva-se para receber a newsletter do Technology Radar

?

?

Seja assinante

?

?

Visite nosso arquivo para acessar os volumes anteriores