Falta pouco!

0 dias

0 horas

0 min

0 seg

2
respostas

ChatGPT5 lida com 128K de tokens, então, tudo mudou

Segue resposta dpo CHATGPT5:
Estamos usando aqui o GPT-5 (versão mais recente do ChatGPT Plus).
O limite de janela de contexto (tokens que consigo manter de uma vez na conversa) neste modelo é de aproximadamente:

128.000 tokens no total (entrada + histórico + saída).

Isso significa que consigo manter o equivalente a um livro de ~300 páginas de contexto contínuo antes de começar a “esquecer” mensagens antigas.

Quando a conversa passa desse limite, os trechos mais antigos vão sendo descartados para liberar espaço às partes mais novas.

Quer que eu te mostre uma noção prática de quantas palavras ou páginas cabem nesses 128k tokens para ficar mais concreto?

Você disse:
Antes era 4.000 tokens, né?
O ChatGPT disse:

Exatamente

No início, quando a OpenAI lançou o ChatGPT baseado no GPT-3.5, o limite era de cerca de 4.096 tokens (um pouco mais de 3.000 palavras de inglês corrido).

Depois, em 2023:

GPT-4 saiu com 8.192 tokens (8k) no modelo padrão.

Pouco depois, lançaram variantes com 32k tokens (~24 mil palavras).

E hoje, nos modelos mais novos como o GPT-4o e o GPT-5 que você está usando, a janela de contexto subiu para 128k tokens.

Ou seja:

de ~4k → 8k → 32k → 128k.

Isso multiplicou por mais de 30 vezes a quantidade de histórico que consigo manter sem esquecer nada.

Quer que eu faça uma comparação em páginas de livro ou minutos de conversa para você visualizar melhor o salto de 4k → 128k?

2 respostas

Oi Sonia, tudo bem?

Sim, o modelo atual do ChatGPT (GPT-5) realmente trabalha com uma janela de contexto de 128.000 tokens (entrada + histórico + saída). Esse é o limite de memória “ativa” que ele consegue manter de uma vez em uma conversa.

Antes, os modelos tinham limites bem menores, como o GPT-3.5 que era cerca de 4.096 tokens

Para conferir esses limites diretamente na documentação oficial da OpenAI, você pode acessar:

Portanto, isso dependerá do modelo utilizado, no momento que o curso foi gravado o limite de tokens era menor.

Espero ter esclarecido.

Qualquer dúvida que surgir, compartilhe no fórum. Abraços e bons estudos!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!

Sim, seria interessante atualizar essa parte do curso. Grata