Solucionado (ver solução)
Solucionado
(ver solução)
1
resposta

[Dúvida] Como impedir a divulgação de uma coluna (campo) específica?

Na personalização do prompt, disse explicitamente que não era permitido passar informações de uma coluna específica (valor em R$). Mas ele não ignora. Como limitar que na resposta a IA informe esse campo?

1 resposta
solução!

Oii, Regina! Tudo bem?

Quando trabalhamos com Respostas Generativas no Copilot Studio, o modelo de IA tenta ser o mais prestativo possível com base nos dados fornecidos. Às vezes, apenas uma instrução no prompt ("Não mostre a coluna X") pode não ser suficiente, pois a IA ainda "enxerga" esse dado na base de conhecimento e pode acabar trazendo-o se o usuário fizer uma pergunta direta ou se ela considerar relevante para o raciocínio.

Tenho algumas opções de estratégias pra garantir que essa informação fique protegida:

1. Tratamento da base de dados (a opção mais segura):

A maneira mais garantida de impedir que a IA divulgue um dado é não fornecê-lo. Se a coluna de valores em R$ não deve ser acessível pelo bot em nenhuma hipótese:

  • Crie uma cópia ou uma visualização da sua planilha (ou fonte de dados) removendo essa coluna específica.
  • Suba apenas esse arquivo "limpo" para a Base de Conhecimento do Copilot.

Se a IA não tiver acesso ao dado, não há risco de vazamento.

2. Refinamento das instruções de configuração (prompt do sistema):

Se você precisa que a coluna esteja lá pra outros cálculos internos, mas não quer que ela seja exibida, tente ser ainda mais restritiva no campo de Instruções personalizadas dentro do nó de respostas generativas:

"Você é um assistente financeiro. Ao responder, utilize apenas as colunas de Código, Status e Produto. É terminantemente proibido mencionar, calcular ou exibir qualquer valor numérico referente à coluna 'Valor em R$', mesmo que o usuário solicite diretamente."

3. Uso de Filtros de Pesquisa:

Se você estiver utilizando fontes como SharePoint ou Dataverse, verifique se há como aplicar filtros de segurança ou permissões de nível de coluna. Isso impede que o motor de busca do Copilot sequer indexe esse campo específico para a resposta.

Mas vamos lá: Por que o prompt às vezes falha?

Modelos de linguagem podem sofrer com o que chamamos de "atenção seletiva". Se o usuário pergunta "Qual o valor do pedido P05?", a intenção da pergunta entra em conflito direto com a sua instrução negativa. Em muitos casos, a base de dados acaba prevalecendo sobre a instrução do prompt.

Dica extra: No próximo capítulo sobre Fluxos Condicionais, você verá como direcionar a pessoa usuária pra caminhos diferentes criando uma "trava" de segurança.

Você aprenderá a usar um nó de Condição para identificar se a pergunta contém palavras como "valor", "preço" ou "R$". Se esses termos aparecerem, você poderá desviar o fluxo para uma mensagem padrão informando que esses dados são sigilosos, impedindo que a pergunta chegue até a IA generativa. Isso garante que o sistema nem consulte a base de dados quando o assunto for financeiro, criando um ciclo de retorno pra que a pessoa possa fazer outras perguntas permitidas.

Espero ter ajudado.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!