0
respostas

[Sugestão] Curiosidade: Resumir textos longos

Assistindo a aula fiquei curiosa, pois utilizo muito o Copilot e às vezes mantenho conversas extensas em um único chat. Então resolvi pesquisas alguns modelos.
Copilot Resposta: Atualmente, eu consigo trabalhar com uma janela de contexto ativa de até cerca de 128K tokens. Isso significa que consigo manter em memória e raciocinar sobre uma quantidade muito grande de texto dentro de uma mesma conversa.
ChatGPT5: A mesma coisa 128K Tokens
Mari Talk (Maritaca) : O Sabiá-4, modelo que estou utilizando, foi treinado para trabalhar com uma janela de contexto de até 32.768 tokens. Isso significa que consigo manter e processar até esse número de tokens em uma única conversa, permitindo diálogos longos e análise de textos extensos sem perder o contexto.
Gemini 3 Flash: Como Gemini 3 Flash, eu trabalho com uma janela de contexto massiva. Atualmente, eu consigo processar e manter em minha "memória ativa" até 1 milhão de tokens em uma única conversa.

Achei muito interessante como a IA evoluiu.