Olá, pessoal!
Dando continuidade aos estudos, realizei a atividade sobre os Princípios Fundamentais da Engenharia de Prompt. O objetivo era resolver um enigma lógico utilizando duas abordagens: um prompt direto e outro estruturado com subtarefas.
Para tornar o teste mais interessante, utilizei dois modelos diferentes: o Le Chat (da Mistral) para o prompt simples e o Gemini AI Studio para o prompt avançado.
O Desafio
O enigma envolvia descobrir se o Coronel Mostarda estava no observatório com o castiçal, baseando-se em 5 dicas específicas.
Teste 1: Prompt Direto (Le Chat)
No prompt simples, o modelo já conseguiu resolver o problema, mas a resposta foi direta e sem uma estrutura de análise profunda prévia. Ele identificou corretamente que a Dica 3 e a Dica 5 se conectavam.
Teste 2: Prompt Avançado (Gemini AI Studio)
Aqui apliquei a técnica de dividir a tarefa em subtarefas (Chain of Thought). Pedi para o modelo:
Analisar a relevância de cada dica;
Combinar o raciocínio;
Mapear para a múltipla escolha.
O que achei interessante:
O Gemini, ao seguir as instruções, "pensou em voz alta" (utilizando até o recurso de Thoughts do modelo). Ele descartou explicitamente as dicas irrelevantes (1, 2 e 4) antes de focar no que importava. Isso reduz drasticamente a chance de a IA sofrer uma "alucinação" ou se perder em informações desnecessárias.
Mesmo que os modelos atuais estejam cada vez mais inteligentes e consigam resolver problemas simples de primeira, estruturar o prompt ajuda a garantir a consistência.