Las organizaciones se mantienen cautelosas con respecto a las IAs asistentes de c¨®digo de terceros, particularmente debido a preocupaciones con respecto a la confidencialidad del c¨®digo. Como resultado, muchos desarrolladores est¨¢n considerando asistentes de c¨®digo locales , IAs que corren completamente en sus propias m¨¢quinas, eliminando la necesidad de enviar c¨®digo a servidores externos. Sin embargo, los asistentes locales a¨²n se quedan atr¨¢s de sus contrapartes de nube, que conf¨ªan en modelos m¨¢s grandes y m¨¢s capaces. Incluso en m¨¢quinas de desarrollo de alta gama, los modelos m¨¢s peque?os mantienen capacidades limitadas. Hemos encontrado que tienen dificultades con prompts complejos, carecen de la ventana de contexto necesaria para problemas m¨¢s grandes y a menudo no pueden gatillar integraciones de herramientas o llamadas a funciones. Estas capacidades son especialmente esenciales para los flujos de trabajo agentivos, los cuales son la vanguardia en asistencia de c¨®digo actualmente.
As¨ª que, si bien recomendamos proceder con bajas expectativas, existen algunas capacidades que son v¨¢lidas a nivel local. Ciertos IDEs populares actualmente incorporan modelos m¨¢s peque?os en sus caracter¨ªsticas centrales, tales como el completado de c¨®digo predictivo de Xcode y . Y LLMs que puedan correr localmente como son un paso hacia sugerencias locales en l¨ªnea y manejo de queries simples de c¨®digo. Se puede probar estas capacidades con Continue, que soporta la integraci¨®n de modelos locales v¨ªa tiempo de ejecuci¨®n como Ollama.

