2
respostas

A Importância da Verificação de Informações nas Inteligências Artificiais

Durante a aula, foi possível compreender melhor como funcionam os modelos de linguagem e a importância dos dados utilizados no treinamento das inteligências artificiais. O conteúdo mostrou que as respostas são geradas com base em probabilidades e padrões aprendidos durante o treinamento.

Realizei um teste utilizando o Gemini e o ChatGPT com a mesma pergunta e percebi que ambos apresentaram respostas coerentes, porém com pequenas diferenças nas informações. Em um dos casos, um modelo informou que Rogério Ceni marcou 131 gols, enquanto o outro apontou 129.

Essa experiência reforçou a importância de sempre verificar as fontes e analisar as informações apresentadas pela IA. Mesmo sendo ferramentas muito avançadas, ainda é necessário senso crítico e conferência dos dados para garantir maior confiabilidade nas respostas.

2 respostas

Olá, João. Como vai?

Excelente observação! O seu relato traz um exemplo prático perfeito de um fenômeno muito comum no estudo de modelos de linguagem (LLMs): a natureza probabilística das IAs. Como você bem pontuou, essas ferramentas não realizam uma consulta direta a um banco de dados estático como o SQL, mas sim uma previsão da próxima palavra (token) com base em padrões estatísticos.

No caso específico dos gols do Rogério Ceni, a divergência que você encontrou (131 vs 129) ilustra dois conceitos fundamentais que estudamos em Engenharia de Prompt:

  • Ponto de Corte dos Dados (Knowledge Cutoff): Cada modelo foi treinado com uma base de dados que "termina" em uma data específica. Se um modelo foi finalizado antes de uma atualização oficial da contagem de gols (que muitas vezes varia entre critérios da FIFA e da Placar/Santos, por exemplo), ele apresentará o número que era "provável" na época do seu treinamento.
  • Alucinação e Estimação: Por trabalharem com proximidade semântica, se o modelo encontrar textos conflitantes na internet durante o treinamento, ele pode acabar "misturando" as informações ou escolhendo a que aparece com mais frequência, mesmo que não seja a mais atualizada.

Boas Práticas para Garantir a Confiabilidade

Para mitigar esses problemas e aplicar o senso crítico que você mencionou, existem algumas técnicas de Engenharia de Prompt que podem ajudar:

  • Atribuição de Papel (System Prompt): Peça para a IA agir como um "checador de fatos rigoroso" ou "historiador esportivo".
  • Chain of Thought (Cadeia de Pensamento): Peça para a IA explicar de onde ela extraiu aquele número ou quais critérios está usando para a contagem (ex: "Liste os gols por ano para chegar ao total").
  • Citação de Fontes: Sempre que possível, solicite que a IA indique links ou referências bibliográficas para que você possa fazer a conferência manual.

Sua postura de testar a mesma pergunta em ferramentas diferentes é uma das melhores estratégias para quem trabalha com IA Generativa. O "confronto" de dados entre modelos ajuda a identificar onde a informação é sólida e onde ela é incerta.

Espero que possa ter lhe ajudado!

Olá, Evandro! Tudo bem?

Muito obrigado pela explicação e pelo aprofundamento do tema. Sua resposta ajudou bastante a conectar a prática realizada com os conceitos estudados sobre modelos de linguagem e Engenharia de Prompt.

Achei especialmente interessante a explicação sobre o knowledge cutoff e a questão das diferentes fontes utilizadas no treinamento dos modelos. Isso mostra como pequenas divergências podem surgir mesmo em informações aparentemente simples.

As técnicas que você mencionou, como Chain of Thought, atribuição de papel e solicitação de fontes, realmente agregam muito valor para aumentar a confiabilidade das respostas geradas pela IA. Vou começar a aplicar essas estratégias nos próximos testes e atividades.

Obrigado pelo retorno detalhado e pelas contribuições compartilhadas no fórum!