Solucionado (ver solução)
Solucionado
(ver solução)
2
respostas

[Projeto] O modelo avançou e parece bem diferente nas respostas

Creio que o modelo do chatGPT já não é mais o mesmo em treino e resultados, ele me parece mais consciso dando frases curtas, ou até me sugeriu duas respostas pra escolher noc aso do igual a um colega disse repetindo o COM mas parece que isso é só por causa do contexto, mesmo sendo uma simulação, em um das respostas ele sugeriu o "com..." mais completo "com isso" , "com ela"

sim 0.62
claro 0.14
perfeitamente 0.09
entendi 0.08
ok 0.07

Eu gosto muito de inteligência artificial e quero trabalhar

com 0.31
com ela 0.24
na área 0.19
com isso 0.14
nisso 0.12

Eu gosto muito de inteligência artificial e quero trabalhar com

dados 0.28
isso 0.21
ela 0.19
modelos 0.17
machine 0.15

o Contexto influência nas respostas, o histórico que ele tem das conversas.

No caso do "Rogerio Ceni" ele me deu respostas curtas sem tanta completude de histórico, creio que por eu não ter falado sobre ou o modelo estar mais restrito

2 respostas
solução!

Oii Marcelo, tudo bem?

Sua observação é bastante pertinente! Você identificou exatamente um dos pontos mais importantes sobre modelos de linguagem: o contexto influencia diretamente as probabilidades de cada token.

Deixa eu explicar o que está acontecendo nos dois casos que você trouxe:

Por que o modelo sugeriu "com ela" e "com isso"?

No seu exemplo, a frase era sobre inteligência artificial. Como o modelo foi treinado com enormes volumes de texto, ele aprendeu que, em contextos de IA, frases como "quero trabalhar com isso" ou "quero trabalhar com ela" (referindo-se à IA mencionada antes) são muito comuns. O contexto anterior da frase carrega peso nas probabilidades dos próximos tokens.

Por que "Rogério Ceni" gerou respostas mais curtas?

Exatamente pelo motivo que você levantou: o modelo não tem tanto contexto acumulado sobre o que viria depois do nome dele naquela conversa específica. Com menos "pista semântica", as probabilidades ficam mais distribuídas e as respostas tendem a ser menos elaboradas.

Sobre o modelo estar "diferente"

Sim, os modelos do ChatGPT são atualizados periodicamente pela OpenAI. Versões mais novas tendem a ser mais concisas e, em alguns casos, oferecem alternativas de resposta. Isso é normal e faz parte da evolução dos LLMs — o conceito de word embeddings e proximidade semântica que a aula apresenta continua sendo a base, mas o comportamento externo pode mudar com cada versão.

O importante é que o raciocínio que você está construindo está correto: contexto + histórico da conversa = influência direta nas probabilidades dos próximos tokens.

Conte com a Alura para evoluir seus estudos. Em caso de dúvidas, fico à disposição.

Bons estudos!

Sucesso

Imagem da comunidade

Legal Victor obrigado