Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : Sep 27, 2023
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
Sep 2023
Evaluar ?

es una librer¨ªa de aprendizaje autom¨¢tico en C que permite la inferencia de CPU. Esta librer¨ªa define un formato binario para distribuir modelos grandes de lenguaje (LLMs, por sus siglas en ingl¨¦s). Para hacerlo, usa , una t¨¦cnica que permite que los LLMs ejecuten inferencia de CPU efectiva en hardware de consumo. GGML soporta varias estrategias de cuantificaci¨®n digital (e.g., cuantificaci¨®n de 4 bits, 5 bits, y 8 bits), cada una de las cuales ofrece diferentes relaciones coste-beneficio entre eficiencia y rendimiento. Una manera r¨¢pida de probar, ejecutar y construir aplicaciones con estos modelos de cuantificaci¨®n, es un binding de Python llamado . Se trata de un wrapper de Python sobre GGML que nos abstrae del repetitivo c¨®digo necesario para ejecutar inferencia al proveer una API de alto nivel. Hemos usado estas librer¨ªas para construir pruebas de concepto y experimentos. Si est¨¢s valorando usar LLMs auto alojados, eval¨²e cuidadosamente estas librer¨ªas para su organizaci¨®n.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores