1
resposta

Resumo das técnicas para ficar claro.

  1. Least-to-Most Prompting
    Esta técnica foca na estratégia de "dividir para conquistar". Em vez de tentar resolver um problema complexo de uma só vez, o modelo é instruído a:

Decompor o problema em uma série de subquestões menores e mais simples.

Resolver cada subquestão sequencialmente, usando a resposta da anterior para ajudar a resolver a próxima.

Aplicação: Ideal para raciocínio lógico, problemas matemáticos de várias etapas ou tarefas de programação complexas.

  1. Chain of Verification (CoVe)
    O foco aqui é a redução de alucinações e o aumento da precisão factual. O processo segue quatro etapas:

O modelo gera uma resposta inicial.

O modelo planeja "perguntas de verificação" para checar os fatos contidos nessa resposta.

O modelo responde a essas perguntas de forma independente (para não ser tendencioso pela resposta inicial).

O modelo gera uma resposta final revisada, corrigindo as inconsistências encontradas.

Aplicação: Verificação de biografias, dados históricos ou qualquer consulta baseada em fatos reais.

  1. Self-Consistency
    Diferente das técnicas que seguem um único caminho de pensamento, a Self-Consistency (Autoconsistência) trabalha com a "sabedoria da maioria":

O modelo gera múltiplos caminhos de raciocínio diferentes para a mesma pergunta (geralmente usando Chain of Thought).

Isso resulta em várias respostas possíveis.

O sistema seleciona a resposta que aparece com mais frequência (o voto majoritário).

Aplicação: Aumentar a confiabilidade em tarefas de senso comum e raciocínio simbólico.

  1. Uso Programático de LLMs
    Isso se refere à integração de modelos de linguagem em fluxos de trabalho de software automatizados, em vez de apenas usá-los via chat. Isso envolve:

APIs: Chamar o modelo via código (Python, Node.js) para processar dados em escala.

Saída Estruturada: Forçar o modelo a responder em formatos como JSON, permitindo que outros sistemas leiam a informação sem erros de interpretação.

Encadeamento (Chains): Usar bibliotecas como LangChain ou DSPy para criar pipelines onde a saída de um LLM alimenta a entrada de outro ou executa uma função no sistema.

Agentes: Permitir que o modelo utilize ferramentas externas (como calculadoras ou busca na web) de forma autônoma.

1 resposta

Oi, Cíntia, tudo bem com você?

Você organizou as técnicas de forma clara e trouxe exemplos práticos de aplicação para cada uma delas. A explicação sobre como cada técnica funciona mostra que você compreendeu bem os conceitos e conseguiu sintetizar o conteúdo da aula de maneira objetiva.

Continue praticando essas técnicas em situações reais, isso vai consolidar ainda mais seu entendimento.

Quando você for aplicar essas técnicas na prática, teste combinações entre elas em um mesmo prompt. Por exemplo, você pode usar Least-to-Most para decompor um problema complexo e depois aplicar Chain of Verification para validar os fatos mencionados na resposta. Essa integração entre técnicas costuma gerar resultados ainda mais precisos e confiáveis.

Obrigado por compartilhar seu resumo no fórum.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!