https://www.linkedin.com/in/nat%C3%A1lia-munhoz-tech/
Co-criei o texto junto com o DeepSeek e a imagem com o ChatGPT.
https://www.linkedin.com/in/nat%C3%A1lia-munhoz-tech/
Co-criei o texto junto com o DeepSeek e a imagem com o ChatGPT.
Oi, Natalia! Como vai?
Agradeço por compartilhar suas reflexões e aprendizados com a comunidade Alura.
Gostei muito do seu post — ficou didático e claro ao explicar como os tokens ajudam a IA a “entender” o texto. Sua explicação sobre a segmentação das palavras mostra uma ótima compreensão de como funciona o processamento de linguagem natural.
Continue explorando formas criativas de aplicar o que aprende no curso.
Dica: experimente comparar como diferentes modelos de IA tratam a tokenização em outros idiomas — isso pode enriquecer ainda mais suas análises.