olá ! Gostaria de fazer uma nota, de que o comando :
nltk.download('punkt')
palavras_separadas = nltk.tokenieze.word_tokenize(texto_exemplo)
print(palavras_separadas)
está gerando erro de que nltk nao possui a tributo 'tokenize'.
Acabei dando uma olhada na documentação da libary e atualizei o comando, para:
from nltk.tokenize import TweetTokenizer
tknzr = TweetTokenizer()
palavras_separadas = tknzr.tokenize(texto_exemplo)
print(palavras_separadas)
Solucionando o problema.