Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Oct 23, 2024
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
Oct 2024
Probar ?

LLM Guardrails son un conjunto de pautas, pol¨ªticas o filtros dise?ados para evitar que los modelos de lenguaje de gran tama?o (LLMs) generen contenido da?ino, enga?oso o irrelevante. Las barreras tambi¨¦n pueden usarse para proteger a las aplicaciones LLM de usuarios malintencionados que intenten abusar del sistema mediante t¨¦cnicas como la manipulaci¨®n de inputs. Act¨²an como una red de seguridad al establecer l¨ªmites para que el modelo procese y genere contenido. Existen algunos frameworks emergentes en este ¨¢mbito como NeMo Guardrails, y que nuestros equipos han encontrado ¨²tiles. Recomendamos que toda aplicaci¨®n de LLM tenga guardrails implementadas y que sus reglas y pol¨ªticas se mejoren continuamente. Son cruciales para construir aplicaciones de chat responsables y confiables con LLMs.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores