Dominando Embeddings para NLP Semântico
Já entendemos sobre word embeddings, como Word2Vec, GloVe e a mágica contextual do BERT. Sabemos como palavras individuais podem ser representadas como vetores, capturando relações semânticas e contexto. Mas, e se precisarmos entender o significado de frases inteiras? Se a sua tarefa de NLP não for sobre palavras isoladas, mas sobre comparar documentos, encontrar perguntas … Read more