Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Apr 03, 2024
N?O ENTROU NA EDI??O ATUAL
Este blip n?o est¨¢ na edi??o atual do Radar. Se esteve em uma das ¨²ltimas edi??es, ¨¦ prov¨¢vel que ainda seja relevante. Se o blip for mais antigo, pode n?o ser mais relevante e nossa avalia??o pode ser diferente hoje. Infelizmente, n?o conseguimos revisar continuamente todos os blips de edi??es anteriores do Radar. Saiba mais
Apr 2024
Evite ?

? medida que organiza??es buscam formas de fazer com que os modelos de linguagem de grande porte (LLMs) funcionem no contexto de seus produtos, dom¨ªnios ou conhecimento organizacional, estamos vendo uma corrida para o fine-tuning de LLMs. Embora o fine-tuning possa ser uma ferramenta poderosa para aumentar a especificidade de tarefas em um caso de uso, em muitos casos ele n?o ¨¦ necess¨¢rio. Um dos erros mais comuns nessa pressa pelo fine-tuning ¨¦ tentar tornar um aplicativo baseado em LLM ciente de conhecimento e fatos espec¨ªficos ou do c¨®digo-base de uma organiza??o. Na grande maioria desses casos, usar uma forma de gera??o aumentada por recupera??o (RAG) oferece uma solu??o melhor e uma rela??o custo-benef¨ªcio mais vantajosa. O fine-tuning requer recursos computacionais consider¨¢veis e expertise, al¨¦m de introduzir desafios ainda maiores relacionados a dados sens¨ªveis e propriet¨¢rios do que a RAG. H¨¢ tamb¨¦m o risco de subajuste (underfitting), quando n?o h¨¢ dados suficientes para o fine-tuning, ou, menos frequentemente, de superajuste (overfitting), quando h¨¢ dados em excesso, o que resulta em um desbalanceamento na especificidade de tarefas que voc¨º precisa. Analise atentamente esses pr¨®s e contras e considere as alternativas antes de se apressar para fazer o fine-tuning de um LLM para o seu caso de uso.

Inscreva-se para receber a newsletter do Technology Radar

?

?

Seja assinante

?

?

Visite nosso arquivo para acessar os volumes anteriores