Por Ricardo Costa Val do Rosário auxiliado por ChatGPT (modelo de apoio analítico)
# Tecnovigilância, # Segurança Clínica, # Responsabilidade Médica
1. Contextualização
- Em modelos de linguagem, o termo "alucinação" se refere à geração de respostas que
fogem do contexto ou que apresentam informações imprecisas ou incoerentes em relação
à entrada fornecida.
- Esse comportamento pode ocorrer quando o modelo extrapola o que aprendeu dos dados
de treinamento, produzindo conteúdos que não correspondem à realidade esperada.
2. A Relevância de DM IA Alucinarem
- Em saúde todo e qualquer esforço se justifica a fim de evitarmos quaisquer tipos de mal
funcionamento de aparelho médico-hospitalar durante sua utilização na prática assistencial,
pois falhas implicam em diversas consequências como apontado adiante.
- Dentro desse contexto, sabe-se que apesar de cada vez mais seguros, dispositivos médicos
arquitetados com ferramentas de IA (DM IA) podem também apresentarem mal funcionamento.
# 2.1 Estatísticas e Relatos de Erros em DM IA
- Segundo a OMS menos de 10% dos países possuem normas claras de responsabilidade para
erros cometidos por sistemas de IA em saúde.
- Estudos internacionais apontam que cerca de 20% das respostas médicas geradas por IA podem
ser incorretas ou perigosas, e incidentes adversos relacionados a dispositivos médicos ocorrem em
até 10% dos pacientes hospitalizados.
- Esses dados, embora heterogêneos entre países e sistemas de saúde, convergem para um ponto
comum:
1. a necessidade de supervisão médica contínua
2. presença de estruturas formais de tecnovigilância para sistemas baseados em IA.
- No Brasil, a notificação de eventos adversos é obrigatória e deve ser realizada via sistema Notivisa
da ANVISA, reforçando a importância da tecnovigilância e da supervisão médica contínua.
# 2.2. Principais Tipos de Erros
1. Inferências não autorizadas:
Sistemas de apoio à decisão clínica podem “completar” dados inexistentes, supor comorbidades
não registradas ou extrapolar informações sem score de confiança.
2. Alarmes falsos e sobrecarga de equipes:
Modelos de triagem podem superestimar riscos em textos ambíguos, gerando alarmes falsos e
estigmatização do paciente.
3. Preenchimento fictício de dados clínicos:
IA pode criar registros ou diagnósticos baseados em dados incompletos, levando a condutas
inadequadas e violação do princípio da não maleficência.
3. Exemplos de Alucinações de DM IA
Exemplo 1 – Sistema de Apoio à Decisão Clínica (CDSS) baseado em LLM
Cenário:
Um CDSS com LLM é utilizado para sugerir condutas em um pronto atendimento.
Ao receber um prontuário incompleto, o modelo “completa” informações inexistentes
(por exemplo, supõe comorbidades não registradas).
1. Tipo de alucinação:
• Inferência não autorizada
• Preenchimento fictício de dados clínicos
2. Risco assistencial:
• Conduta inadequada
• Prescrição incorreta
• Violação do princípio da não maleficência
# Pseudocódigo ilustrativo (falha):
prompt = f"""
Paciente com dor torácica.
História clínica: {dados_prontuario}
Sugira diagnóstico e conduta.
"""
resposta = llm.generate(prompt)
Correção estruturada (mitigação):
prompt = f"""
Você é um sistema de apoio clínico.
Use APENAS os dados explicitamente informados.
Se faltar informação, responda: 'Dados insuficientes'.
Dados disponíveis:
{dados_prontuario}
"""
Exemplo 2 – DM IA com NLP para triagem
Cenário:
Sistema analisa relatos textuais de pacientes para classificar risco (ex.: depressão,
ideação suicida).
O modelo superestima risco em textos ambíguos.
1. Tipo de alucinação:
• Extrapolação sem score de confiança
2. Risco:
• Alarmes falsos
• Sobrecarga de equipes
• Estigmatização do paciente
3. Mitigação prática:
• Score probabilístico
• Threshold clínico validado
• Validação humana obrigatória
4. Consequências das Alucinações
- As alucinações em DM IA não são meros erros computacionais.
Na saúde, elas podem gerar:
• Desfechos clínicos adversos
• Processos ético-profissionais
• Judicialização da assistência
• Perda de confiança institucional
• Risco regulatório (ANVISA / FDA / MDR)
- Em Tecnovigilância, uma resposta plausível, porém errada, é mais perigosa do
que uma resposta ausente.