A escolha da tokenização impacta diretamente a capacidade do modelo de entender línguas altamente flexionadas como o Português. Usar palavras inteiras sobrecarrega o modelo com um vocabulário enorme, dificultando a generalização e o reconhecimento de novas variações. A solução moderna é a tokenização por partes de palavras (Subword), que quebra o termo em raízes e terminações (ex: correr + ##mos), reduzindo drasticamente o vocabulário e permitindo ao modelo "montar" palavras desconhecidas. Já em relação ao Inglês, ele é geralmente mais eficiente porque, por ter pouca flexão, suas frases geram menos tokens para o mesmo conteúdo informativo, aproveitando melhor o limite de contexto do modelo de IA