Olá pessoal! Toda vez que rodo o perplexity está dando 'inf' ao invés dos valores '47,67' e '21,53'. Alguém pode me ajudar? Segue o código para ver se estou fazendo algo de errado:
def treinar_modelo_mle(lista_textos):
todas_questoes = ' '.join(lista_textos)
todas_palavras = WhitespaceTokenizer().tokenize(todas_questoes)
bigrams, vocabulario = padded_everygram_pipeline(2, todas_palavras)
modelo = MLE(2)
modelo.fit(bigrams, vocabulario)
return modelo
modelo_port_2 = treinar_modelo_mle(port_treino)
print(modelo_port_2.perplexity(palavras_bigramns[0]))
print(modelo_port_2.perplexity(palavras_bigramns[1]))