Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Apr 03, 2024
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
Apr 2024
Resistir ?

A medida que las organizaciones buscan formas de hacer que los modelos de lenguaje grandes (LLM por sus siglas en ingl¨¦s) funcionen en el contexto de su producto, dominio o conocimiento organizativo, estamos viendo prisa por afinar LLMs. Aunque afinar un LLM puede ser una herramienta potente para ganar m¨¢s especializaci¨®n para un caso de uso, en muchos casos no es necesario. Uno de los casos m¨¢s comunes de prisa por afinar mal encaminada es hacer a una aplicaci¨®n respaldada por LLM consciente de conocimiento espec¨ªfico y hechos o de los c¨®digos fuente de una organizaci¨®n. En la gran mayor¨ªa de los casos, usar una forma de retrieval-augmented generation (RAG) ofrece una mejor soluci¨®n y mejor relaci¨®n coste-beneficio. Afinar requiere de considerables recursos de c¨®mputo y experiencia, e introduce incluso m¨¢s desaf¨ªos en relaci¨®n con datos sensibles y propietarios que RAG. Tambi¨¦n existe un riesgo de subajuste cuando no se dispone de suficientes datos para afinar, o, con menos frecuencia, de sobreajuste cuando se tienen demasiados datos y por lo tanto no se encuentra el balance correcto de especificidad de la tarea que se necesita. Est¨¦ atento a estos equilibrios y considere las alternativas antes de apresurarse a afinar un LLM para su caso de uso.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores