Olá, Vinícius! Boa pergunta!
Quando trabalhamos com grandes repositórios de textos, realmente não basta escrever um prompt genérico pedindo para a IA usar os textos fornecidos. Ela pode alucinar ou usar conhecimento externo.
Para aumentar a chance de que a IA consulte apenas a base informada, algumas práticas podem ser aplicadas tanto no Copilot Studio quanto em qualquer sistema baseado em LLM.
1 Estruture o prompt com instruções de restrição
Seja explícito, diga que a IA não deve usar conhecimento externo. Usando linguagem de comando, não de sugestão:
Instruções finais:
- Não utilize conhecimento externo.
- Você deve responder apenas com base nos textos fornecidos.
- Se não encontrar a resposta nos textos, responda: "Não encontrei essa informação na base fornecida".
2 Use formato estruturado para a base
Passe os textos como trechos delimitados, isso ajuda o modelo a entender onde começa e termina a base:
<contexto>
Texto 1...
Texto 2...
</contexto>
3 Aplique um few-shot prompting representativo
Mostre exemplos de perguntas e respostas usando exatamente os dados do repositório, escolha exemplos que representem casos comuns e casos limite:
Exemplo 1:
Pergunta: Qual é a política de férias?
Resposta: Cada colaborador tem direito a 30 dias corridos.
Exemplo 2:
Pergunta: Qual é a política de home office?
Resposta: Não encontrei essa informação na base fornecida
Essas foram algumas maneiras que irão guiar a IA em uma resposta que use apenas o contexto fornecido.
Espero ter ajudado e fico à disposição se precisar.
Abraço e bons estudos!
Caso este post tenha lhe ajudado, por favor, marcar como solucionado