A medida que las organizaciones buscan formas de hacer que los modelos de lenguaje grandes (LLM por sus siglas en ingl¨¦s) funcionen en el contexto de su producto, dominio o conocimiento organizativo, estamos viendo prisa por afinar LLMs. Aunque afinar un LLM puede ser una herramienta potente para ganar m¨¢s especializaci¨®n para un caso de uso, en muchos casos no es necesario. Uno de los casos m¨¢s comunes de prisa por afinar mal encaminada es hacer a una aplicaci¨®n respaldada por LLM consciente de conocimiento espec¨ªfico y hechos o de los c¨®digos fuente de una organizaci¨®n. En la gran mayor¨ªa de los casos, usar una forma de retrieval-augmented generation (RAG) ofrece una mejor soluci¨®n y mejor relaci¨®n coste-beneficio. Afinar requiere de considerables recursos de c¨®mputo y experiencia, e introduce incluso m¨¢s desaf¨ªos en relaci¨®n con datos sensibles y propietarios que RAG. Tambi¨¦n existe un riesgo de subajuste cuando no se dispone de suficientes datos para afinar, o, con menos frecuencia, de sobreajuste cuando se tienen demasiados datos y por lo tanto no se encuentra el balance correcto de especificidad de la tarea que se necesita. Est¨¦ atento a estos equilibrios y considere las alternativas antes de apresurarse a afinar un LLM para su caso de uso.

