Na personalização do prompt, disse explicitamente que não era permitido passar informações de uma coluna específica (valor em R$). Mas ele não ignora. Como limitar que na resposta a IA informe esse campo?
Na personalização do prompt, disse explicitamente que não era permitido passar informações de uma coluna específica (valor em R$). Mas ele não ignora. Como limitar que na resposta a IA informe esse campo?
Oii, Regina! Tudo bem?
Quando trabalhamos com Respostas Generativas no Copilot Studio, o modelo de IA tenta ser o mais prestativo possível com base nos dados fornecidos. Às vezes, apenas uma instrução no prompt ("Não mostre a coluna X") pode não ser suficiente, pois a IA ainda "enxerga" esse dado na base de conhecimento e pode acabar trazendo-o se o usuário fizer uma pergunta direta ou se ela considerar relevante para o raciocínio.
Tenho algumas opções de estratégias pra garantir que essa informação fique protegida:
1. Tratamento da base de dados (a opção mais segura):
A maneira mais garantida de impedir que a IA divulgue um dado é não fornecê-lo. Se a coluna de valores em R$ não deve ser acessível pelo bot em nenhuma hipótese:
Se a IA não tiver acesso ao dado, não há risco de vazamento.
2. Refinamento das instruções de configuração (prompt do sistema):
Se você precisa que a coluna esteja lá pra outros cálculos internos, mas não quer que ela seja exibida, tente ser ainda mais restritiva no campo de Instruções personalizadas dentro do nó de respostas generativas:
"Você é um assistente financeiro. Ao responder, utilize apenas as colunas de Código, Status e Produto. É terminantemente proibido mencionar, calcular ou exibir qualquer valor numérico referente à coluna 'Valor em R$', mesmo que o usuário solicite diretamente."
3. Uso de Filtros de Pesquisa:
Se você estiver utilizando fontes como SharePoint ou Dataverse, verifique se há como aplicar filtros de segurança ou permissões de nível de coluna. Isso impede que o motor de busca do Copilot sequer indexe esse campo específico para a resposta.
Mas vamos lá: Por que o prompt às vezes falha?
Modelos de linguagem podem sofrer com o que chamamos de "atenção seletiva". Se o usuário pergunta "Qual o valor do pedido P05?", a intenção da pergunta entra em conflito direto com a sua instrução negativa. Em muitos casos, a base de dados acaba prevalecendo sobre a instrução do prompt.
Dica extra: No próximo capítulo sobre Fluxos Condicionais, você verá como direcionar a pessoa usuária pra caminhos diferentes criando uma "trava" de segurança.
Você aprenderá a usar um nó de Condição para identificar se a pergunta contém palavras como "valor", "preço" ou "R$". Se esses termos aparecerem, você poderá desviar o fluxo para uma mensagem padrão informando que esses dados são sigilosos, impedindo que a pergunta chegue até a IA generativa. Isso garante que o sistema nem consulte a base de dados quando o assunto for financeiro, criando um ciclo de retorno pra que a pessoa possa fazer outras perguntas permitidas.
Espero ter ajudado.