Vom prompts tap grandes como o exemplo desse Agente, nao podemos afetar a janela de contexto no modelo?
Vom prompts tap grandes como o exemplo desse Agente, nao podemos afetar a janela de contexto no modelo?
Oi, Raphael!
A janela de contexto define a quantidade de tokens (que envolvem palavras, códigos, pontuação etc.) que o modelo consegue considerar de uma vez só. Mas mdelos como o GPT-4-turbo, por exemplo, têm capacidade para lidar com até 128 mil tokens — o que permite trabalhar com prompts mais estruturados, como o do curso, sem prejudicar o desempenho do agente.
Veja um exemplo mais leve:
let prompt = "Explique o que é a janela de contexto.";
console.log(prompt);
Esse código envia uma instrução simples e direta.
Agora imagine algo exageradamente extenso:
let prompt = "Instrucoes detalhadas...".repeat(50000);
console.log(prompt);
Aqui sim há risco de ultrapassar a janela de contexto, o que pode levar o modelo a ignorar parte do conteúdo.
Mas o prompt usado no curso foi construído e pensado para servir de base sólida. É uma referência inicial, que você pode adaptar conforme os limites do modelo e da aplicação que estiver desenvolvendo.
Espero ter ajudado. Conte com o apoio do Fórum na sua jornada. Fico à disposição.
Abraços e bons estudos!