Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

Publicado : May 19, 2020
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
May 2020
Evaluar ?

En la anterior edici¨®n del Radar presentamos BERT - un hito en el panorama de Procesamiento de Lenguaje Natural. El a?o pasado, Baidu public¨® que mejor¨® BERT en siete tareas de comprensi¨®n del lenguaje GLUE y en las 9 tareas NLP para el lenguaje chino. ERNIE, como BERT, ofrece modelos de lenguaje no supervisados pre-entrenados, que pueden ser ajustados agregando capas de salida para crear modelos en estado del arte para una variedad de tareas NLP. ERNIE se diferencia de los m¨¦todos pre-entrenados tradicionales en que es un framework de pre-entrenamiento continuo. En lugar de entrenar con un peque?o n¨²mero de objetivos de pre-entrenamiento, puede introducir constantemente una gran variedad de tareas de pre-entrenamiento para ayudar al modelo a aprender representaciones del lenguaje de manera eficiente. Estamos muy emocionados sobre los avances en NLP y estamos deseando experimentar con ERNIE en nuestros proyectos.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores