Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Inferencia con LLMs en dispositivos de usuario final

Publicado : Oct 23, 2024
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
Oct 2024
Evaluar ?

Los modelos de lenguaje de gran tama?o o LLMs (siglas en ingl¨¦s para Large Language Model) ahora son capaces de correr en navegadores web y dispositivos de usuario final, como tel¨¦fonos inteligentes y computadores port¨¢tiles, permitiendo que aplicaciones de AI se ejecuten en el dispositivo. Esto permite el manejo seguro de datos sensibles sin necesidad de transferir datos hacia la nube, muy baja latencia en tareas como edge computing y procesamiento de imagen o video en tiempo real, costos reducidos al realizar c¨®mputos localmente y mantener funcionalidad incluso cuando no se cuenta con una conexi¨®n estable a internet. ?sta es un ¨¢rea de continua investigaci¨®n y desarrollo. En ediciones pasadas mencionamos MLX, un framework de c¨®digo abierto para machine learning eficiente en procesadores Apple silicon. Otras herramientas que est¨¢n emergiendo incluyen y . Transformers.js nos permite correr Transformers en el navegador usando el ONNX Runtime, soportando modelos convertidos desdecomo PyTorch, TensorFlow y JAX. Chatty se apalanca en WebGPU para correr LLMs de forma nativa y privada en el navegador, ofreciendo una experiencia de AI enriquecida dentro del mismo.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores