Procurei fazer um pouco diferente:
def separa_palavras(lista_tokens):
lista_palavras = []
for token in lista_tokens:
if token.isalpha():
# Professor digitou:
# lista_palavras.append(token)
lista_palavras += token
return lista_palavras
para:
palavras_separadas = nltk.tokenize.word_tokenize('Olá, como vai?')
palavras_separadas
['Olá', ',', 'como', 'vai', '?']
O que resultou em:
separa_palavras(palavras_separadas)
['O', 'l', 'á', 'c', 'o', 'm', 'o', 'v', 'a', 'i']
Por que lista_palavras.append(token)
resulta diferente de lista_palavras += token
?