N¨®s hav¨ªamos inclu¨ªdo essa t¨¦cnica em Avalie anteriormente. As inova??es no cen¨¢rio do PLN continuam em um ¨®timo ritmo, e conseguimos aproveitar essas inova??es em nossos projetos gra?as ¨¤ onipresente transfer¨ºncia de aprendizado para PLN. As pontua??es do benchmark GLUE (um conjunto de tarefas de compreens?o de linguagem) tiveram um progresso dram¨¢tico nos ¨²ltimos dois anos, com pontua??es m¨¦dias passando de 70,0 no lan?amento para l¨ªderes ultrapassando 90,0 em abril de 2020. Muitos de nossos projetos no dom¨ªnio PLN s?o capazes de atingir progressos significativos, iniciando a partir de modelos pr¨¦-treinados do ELMo, BERT e ERNIE, entre outros, e depois ajustando-os com base nas necessidades do projeto.
A transfer¨ºncia de aprendizado tem sido eficaz dentro do campo da vis?o computacional, acelerando o tempo de treinamento de um modelo com a reutiliza??o de m¨®dulos. Quem trabalha com aprendizado de m¨¢quina est¨¢ otimista com o fato de poder aplicar as mesmas t¨¦cnicas no processamento de linguagem natural (NLP) com a publica??o do e modelos pr¨¦-treinados de c¨®digo aberto e exemplos de c¨®digo. Achamos que a transfer¨ºncia de aprendizado para NLP vai reduzir significativamente o esfor?o para criar sistemas que lidam com a classifica??o de texto.

