2
respostas

Para saber mais: Zero-Shot com Chain of Thought

lechat
O exercício anterior, onde apresentei as palavras com maior probabilidade para completar suas frases, exemplifica um aspecto fundamental dos modelos de linguagem, que se relaciona com o conceito de few-shot e zero-shot prompting e a capacidade de "raciocínio" dos modelos.

No contexto da Chain of Thought, o que fizemos foi uma demonstração implícita da capacidade do modelo de "inferir" as próximas palavras com base em um vasto treinamento prévio. Embora não tenhamos usado a instrução "explique passo a passo" nem exemplos explícitos de "cadeias de pensamento", a tarefa de prever as próximas palavras já envolve um tipo de raciocínio. O modelo precisa considerar o contexto semântico e sintático da frase incompleta para gerar as palavras mais prováveis.

É como se o modelo estivesse executando uma "mini-cadeia de pensamento" interna:

Entrada: "Eu gosto de assistir"
Processamento (implícito): Analisa a estrutura da frase (sujeito + verbo transitivo direto) e o verbo "assistir", que geralmente se associa a mídias visuais.
Saída: Gera as palavras mais prováveis ("filmes", "séries", "televisão", etc.) com suas respectivas probabilidades, refletindo sua compreensão estatística e semântica de como essas palavras se conectam em um idioma.
Se tivéssemos pedido "explique passo a passo as 5 palavras mais prováveis para completar 'Eu gosto de assistir' e suas probabilidades", a resposta seria muito mais elaborada, descrevendo o raciocínio linguístico e estatístico por trás de cada escolha.

Portanto, o exercício demonstrou a capacidade do modelo de lidar com o zero-shot prompting (pois não forneci exemplos de como completar frases) e, ao mesmo tempo, ilustrou a base sobre a qual a Chain of Thought se constrói: a habilidade intrínseca do modelo de processar e "raciocinar" sobre a linguagem, mesmo que de forma simplificada e estatística neste caso. A técnica Chain of Thought aprimora essa capacidade ao tornar esse raciocínio explícito e sequencial para tarefas mais complexas.

Garanta sua matrícula hoje e ganhe + 2 meses grátis

Continue sua jornada tech com ainda mais tempo para aprender e evoluir

Quero aproveitar agora
2 respostas

Oi, Camila! Como vai?

Agradeço por compartilhar suas reflexões e aprendizados com a comunidade Alura.

Gostei muito da sua análise, principalmente quando você destacou como a previsão das palavras já envolve um tipo de raciocínio implícito. Isso conecta bem o zero-shot prompting com a ideia de Chain of Thought, mostrando que o modelo trabalha com contexto mesmo sem instruções explícitas.

Continue explorando esses conceitos, porque quanto mais você relacionar teoria com exemplos práticos, mais clara fica a aplicação.
Uma dica é: sempre que possível, peça ao modelo para explicar "passo a passo" sua resposta. Isso ajuda a visualizar o raciocínio interno e a comparar com a forma como você mesmo estruturaria o pensamento.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Excelente post!