Segue resposta dpo CHATGPT5:
Estamos usando aqui o GPT-5 (versão mais recente do ChatGPT Plus).
O limite de janela de contexto (tokens que consigo manter de uma vez na conversa) neste modelo é de aproximadamente:
128.000 tokens no total (entrada + histórico + saída).
Isso significa que consigo manter o equivalente a um livro de ~300 páginas de contexto contínuo antes de começar a “esquecer” mensagens antigas.
Quando a conversa passa desse limite, os trechos mais antigos vão sendo descartados para liberar espaço às partes mais novas.
Quer que eu te mostre uma noção prática de quantas palavras ou páginas cabem nesses 128k tokens para ficar mais concreto?
Você disse:
Antes era 4.000 tokens, né?
O ChatGPT disse:
Exatamente
No início, quando a OpenAI lançou o ChatGPT baseado no GPT-3.5, o limite era de cerca de 4.096 tokens (um pouco mais de 3.000 palavras de inglês corrido).
Depois, em 2023:
GPT-4 saiu com 8.192 tokens (8k) no modelo padrão.
Pouco depois, lançaram variantes com 32k tokens (~24 mil palavras).
E hoje, nos modelos mais novos como o GPT-4o e o GPT-5 que você está usando, a janela de contexto subiu para 128k tokens.
Ou seja:
de ~4k → 8k → 32k → 128k.
Isso multiplicou por mais de 30 vezes a quantidade de histórico que consigo manter sem esquecer nada.
Quer que eu faça uma comparação em páginas de livro ou minutos de conversa para você visualizar melhor o salto de 4k → 128k?