lechat
O exercício anterior, onde apresentei as palavras com maior probabilidade para completar suas frases, exemplifica um aspecto fundamental dos modelos de linguagem, que se relaciona com o conceito de few-shot e zero-shot prompting e a capacidade de "raciocínio" dos modelos.
No contexto da Chain of Thought, o que fizemos foi uma demonstração implícita da capacidade do modelo de "inferir" as próximas palavras com base em um vasto treinamento prévio. Embora não tenhamos usado a instrução "explique passo a passo" nem exemplos explícitos de "cadeias de pensamento", a tarefa de prever as próximas palavras já envolve um tipo de raciocínio. O modelo precisa considerar o contexto semântico e sintático da frase incompleta para gerar as palavras mais prováveis.
É como se o modelo estivesse executando uma "mini-cadeia de pensamento" interna:
Entrada: "Eu gosto de assistir"
Processamento (implícito): Analisa a estrutura da frase (sujeito + verbo transitivo direto) e o verbo "assistir", que geralmente se associa a mídias visuais.
Saída: Gera as palavras mais prováveis ("filmes", "séries", "televisão", etc.) com suas respectivas probabilidades, refletindo sua compreensão estatística e semântica de como essas palavras se conectam em um idioma.
Se tivéssemos pedido "explique passo a passo as 5 palavras mais prováveis para completar 'Eu gosto de assistir' e suas probabilidades", a resposta seria muito mais elaborada, descrevendo o raciocínio linguístico e estatístico por trás de cada escolha.
Portanto, o exercício demonstrou a capacidade do modelo de lidar com o zero-shot prompting (pois não forneci exemplos de como completar frases) e, ao mesmo tempo, ilustrou a base sobre a qual a Chain of Thought se constrói: a habilidade intrínseca do modelo de processar e "raciocinar" sobre a linguagem, mesmo que de forma simplificada e estatística neste caso. A técnica Chain of Thought aprimora essa capacidade ao tornar esse raciocínio explícito e sequencial para tarefas mais complexas.