Publicado : Apr 03, 2024
N?O ENTROU NA EDI??O ATUAL
Este blip n?o est¨¢ na edi??o atual do Radar. Se esteve em uma das ¨²ltimas edi??es, ¨¦ prov¨¢vel que ainda seja relevante. Se o blip for mais antigo, pode n?o ser mais relevante e nossa avalia??o pode ser diferente hoje. Infelizmente, n?o conseguimos revisar continuamente todos os blips de edi??es anteriores do Radar.
Saiba mais
Apr 2024
Avalie
¨¦ uma ferramenta c¨®digo aberto para executar e gerenciar modelos de linguagem de grande porte (LLMs) na sua m¨¢quina local. Anteriormente, discutimos os benef¨ªcios dos LLMs auto-hospedados, e ¨¦ animador ver o ecossistema amadurecer com ferramentas como o Ollama. Ele suporta diversos ¡ª incluindo LLaMA-2, CodeLLaMA, Falcon e Mistral ¡ª que voc¨º pode baixar e executar localmente. Uma vez baixado, ¨¦ poss¨ªvel interagir com o modelo e executar tarefas atrav¨¦s da CLI, API ou SDK. Estamos avaliando o Ollama e observando sucessos iniciais, pois ele melhora a experi¨ºncia das pessoas desenvolvedoras ao trabalhar com LLMs localmente.

