- Least-to-Most Prompting
Esta técnica foca na estratégia de "dividir para conquistar". Em vez de tentar resolver um problema complexo de uma só vez, o modelo é instruído a:
Decompor o problema em uma série de subquestões menores e mais simples.
Resolver cada subquestão sequencialmente, usando a resposta da anterior para ajudar a resolver a próxima.
Aplicação: Ideal para raciocínio lógico, problemas matemáticos de várias etapas ou tarefas de programação complexas.
- Chain of Verification (CoVe)
O foco aqui é a redução de alucinações e o aumento da precisão factual. O processo segue quatro etapas:
O modelo gera uma resposta inicial.
O modelo planeja "perguntas de verificação" para checar os fatos contidos nessa resposta.
O modelo responde a essas perguntas de forma independente (para não ser tendencioso pela resposta inicial).
O modelo gera uma resposta final revisada, corrigindo as inconsistências encontradas.
Aplicação: Verificação de biografias, dados históricos ou qualquer consulta baseada em fatos reais.
- Self-Consistency
Diferente das técnicas que seguem um único caminho de pensamento, a Self-Consistency (Autoconsistência) trabalha com a "sabedoria da maioria":
O modelo gera múltiplos caminhos de raciocínio diferentes para a mesma pergunta (geralmente usando Chain of Thought).
Isso resulta em várias respostas possíveis.
O sistema seleciona a resposta que aparece com mais frequência (o voto majoritário).
Aplicação: Aumentar a confiabilidade em tarefas de senso comum e raciocínio simbólico.
- Uso Programático de LLMs
Isso se refere à integração de modelos de linguagem em fluxos de trabalho de software automatizados, em vez de apenas usá-los via chat. Isso envolve:
APIs: Chamar o modelo via código (Python, Node.js) para processar dados em escala.
Saída Estruturada: Forçar o modelo a responder em formatos como JSON, permitindo que outros sistemas leiam a informação sem erros de interpretação.
Encadeamento (Chains): Usar bibliotecas como LangChain ou DSPy para criar pipelines onde a saída de um LLM alimenta a entrada de outro ou executa uma função no sistema.
Agentes: Permitir que o modelo utilize ferramentas externas (como calculadoras ou busca na web) de forma autônoma.