1
resposta

[Dúvida] Análise de documentos

IA é uma ferramenta fantastica que te dá muitas informações de forma rápida, mas como sabemos ainda é meio que "vago" de onde ela tira determinadas informações, meu ponto de dúvida é, para dados sensiveis ou confidenciais como podemos subir sem ter preocupação de vazamento?

1 resposta

Oii Estudante, tudo bem?

Essa é uma preocupação muito válida e importante, especialmente em contextos corporativos.

A resposta curta é: não existe garantia total de privacidade ao enviar dados para ferramentas como o ChatGPT (versão web). O que você sobe fica sujeito às políticas de uso da OpenAI, e por padrão pode ser utilizado para treinamento dos modelos deles.

Algumas práticas que ajudam a mitigar esse risco:

  • Desativar o histórico de conversas no ChatGPT (Configurações > Controles de dados > "Melhorar o modelo para todos"). Com isso, suas conversas não são usadas para treinamento.
  • Anonimizar os dados antes de subir. Substituir nomes, CPFs, e-mails e qualquer informação identificável por dados fictícios ou genéricos antes do upload.
  • Usar versões corporativas/enterprise. O ChatGPT Enterprise e o Azure OpenAI Service, por exemplo, têm contratos com cláusulas explícitas de que os dados não são usados para treinamento e ficam isolados.
  • Usar modelos locais. Para dados altamente sensíveis, uma alternativa real é rodar modelos open source (como o próprio Llama 3, citado no curso) localmente na sua máquina ou servidor da empresa — sem nenhum dado sair para a nuvem.
  • Verificar a política da sua empresa. Muitas organizações já têm diretrizes sobre o que pode ou não ser enviado a ferramentas de IA externas.

A regra prática que costumo recomendar: se o dado não pode aparecer em um e-mail para um desconhecido, não deve ir para uma IA de terceiros sem anonimização.

Conte com a Alura para evoluir seus estudos. Em caso de dúvidas, fico à disposição.

Bons estudos!

Sucesso

Imagem da comunidade