2
respostas

Para saber mais: Zero-Shot com Chain of Thought

Pelo que eu entendi, você formula a pergunta com os dados obtidos, cria um exemplo de respostas para o chat
lhe dar a resposta final, ou seja, você treina sua ia.
É muito interessante, eu nunca tinha pensado dessa forma, quando gero o prompt, dou só o comando para ele responder.

2 respostas

Oi, Sérgio. Tudo certo?

Você captou bem a lógica central da técnica. A ideia de "treinar" o modelo com exemplos é uma forma intuitiva de descrever o que acontece no few-shot prompting: ao mostrar como você quer que o modelo responda, você está orientando o padrão de saída sem precisar explicar tudo em palavras. O Zero-Shot com Chain of Thought vai um passo além disso, porque pede que o modelo desenvolva o raciocínio por conta própria, apenas com a instrução de explicar o processo passo a passo.

Perceber que um único comando direto nem sempre é o suficiente já coloca você em um ponto de partida melhor do que a maioria das pessoas que começam a usar essas ferramentas.

Um exercício que ajuda a sentir a diferença na prática é pegar uma mesma pergunta, de matemática ou de lógica, e enviá-la de duas formas: uma só com o comando, e outra com "explique passo a passo" ao final. Comparar as duas respostas lado a lado deixa claro quando essa adição muda o resultado de forma significativa e quando não faz diferença, o que ajuda a calibrar quando vale usar cada abordagem.

Obrigado por compartilhar sua reflexão aqui no fórum.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Agora passei a compreender melhor, vou estudar mais isso