Solucionado (ver solução)
Solucionado
(ver solução)
6
respostas

Lidando com Conflitos de Computação na Assistência Médica Inteligente

Insira aqui a descrição dessa imagem para ajudar na acessibilidade
Por Ricardo Costa Val do Rosário auxiliado por ChatGPT 2.0 Plus e Microsoft CoPilot 365

1 - Contextualização

# 1,1 - Conflitos de Dados 
Em computação, conflito de merge é quando duas pessoas alteram a mesma linha 
e o sistema 
não consegue decidir sozinho. Especificamente no prontuário, conflito é quando duas (ou mais) 
fontes “alteram a mesma realidade clínica”, inserindo dados relacionadas ao paciente, sendo 
exemplos:
1. Avaliação clínica e condutas tomadas (todas),
2. Passado cirúrgico, alergias e eventos clínicos pregressos
3. Condições sociais, profissionais e hábitos de vida de interesse

# 1.2 - Origem dos Dados e Atores envolvidos
Inúmeros são os atores que lidam com a assistência à saúde, que por sua vez são
os responsáveis pelas informações alimentadas ao prontuário clínico do paciente,
conforme regras  das diiversas profissões, sendo as tradicionais:

1. Medicina

2. Enfermagem

3. Fisioterapia

4. Nutrição

5. Terapia Ocupacional

6. Psicologia

7. Assistência Social

# Classificação dos Dados

Podem ser classificados em 03 grupos, conforme a prioridade dos eventos, 
a saber: 

1.	Não urgência (dia a dia)

2.	Urgência (representa ameaça a vida humana nas próximas 24 a 72 horas)

3.	Emergência (representa ameaça a vida humana nas próximas 24 horas)
    
# 1.3 - Autonomia das Profissões

- A pluralidade de fontes e tipos de dados é tanto uma riqueza quanto um desafio, 
exigindo sistemas capazes de reconhecer e resolver conflitos sem comprometer 
a integridade do cuidado. 

- A ausência de hierarquia entre profissões no registro clínico é um convite à 
colaboração genuína, onde o valor de cada informação é determinado pelo contexto
e pela necessidade do paciente. 

# 1.4 -  Governança e Gestão
A governança e a rastreabilidade são pilares essenciais para garantir que cada 
decisão clínica seja fundamentada, auditável e contextualizada, promovendo um
ambiente seguro e confiável para a assistência médica inteligente. 
Essa ideia conversa diretamente com:

1. “conflito gerado ao tentar unir alterações” e necessidade de resolver e comitar a 
resolução

2. recomendação de análise criteriosa linha por linha (na Saúde: campo por campo / 
evidência por evidência)

3. o papel do Pull Request + code review antes de integrar na main (na Saúde: revisão 
multiprofissional e validação antes de “virar verdade operacional”)

# 1.5  - Escopo deste Projeto
O foco deste projeto não é padronizar todo o sistema de dados, mas construir
um arcabouço técnico-operacional capaz de detectar, classificar, armazenar e resolver 
conflitos de informação, preservando a autonomia multiprofissional e garantindo 
governança, rastreabilidade e integridade.

2 - Problema central e motivação

Na assistência real, o prontuário é um “monorepo” com commits de múltiplos 
autores, incluindo profissionais da saúde, fornecidos pelos dispositivos médicos 
e aqueles originários fora do ambiente hospitalar (wearables, família telemonitoramento).

Quando modelos de IA passam a consumir e retroalimentar esse sistema, a qualidade e a
consistência dos dados tornam-se determinantes para a segurança do paciente e para a 
confiabilidade das decisões automatizadas. Sem padrões e governança, surgem conflitos. 

Conflito, neste contexto, não é sinônimo de 'erro'. Muitas divergências refletem a realidade 
dinâmica do cuidado  tais como:
- momentos diferentes, 

- métodos diferentes de aferição, 

- prioridades distintas. 

O risco surge quando o prontuário, e, por consequência, a IA trata informações incompatíveis 
como se fossem simultaneamente verdadeiras, sem estado, sem contexto e sem trilha 
de decisão. 

A seguir, descrevem-se as classes de conflito mais relevantes, com exemplos e implicações práticas.

# 2.1 - Conflito semântico
Definição: divergência de significado causada por vocabulário heterogêneo, abreviações locais, 
jargões de equipe, uso de texto livre e ausência (ou baixa adesão) a terminologias controladas.

Principais causas:
1. texto livre sem ancoragem a contexto (tempo, método, ambiente)

2. sinônimos, abreviações e 'dialetos' institucionais

3. terminologias distintas entre profissões e especialidades

4. falta de mapeamento para códigos clínicos/ontologias (quando aplicável)

Exemplos clínicos:
1. “Dispneia importante” vs “Sem dispneia” em horários e contextos diferentes 
(repouso vs esforço).

2. “Dor torácica” descrita como queimação epigástrica em nota de outra equipe.

3. “Alergia” registrada como evento adverso não alérgico (náusea) ou intolerância alimentar.
6 respostas
Riscos operacionais para a assistência e para a IA:
1. sumarização incoerente e perda de nuance clínica
2. alertas inadequados (falsos positivos) ou ausência de alerta (falsos negativos)
3. treinamento/ajuste de modelos com rótulos inconsistentes (drift semântico)

Direções de mitigação:
1. núcleo estruturado mínimo para itens críticos (alergias, medicações ativas, problemas ativos)
2. campos de texto livre 'ancorados' (timestamp, método, contexto, autor e vínculo com problema)
3. dicionário institucional de abreviações + mapeamento progressivo para terminologias padronizadas
4. detecção de inconsistências semânticas por IA como triagem, nunca como sentença

# 2.2 Conflito temporal
Definição: conflito gerado quando uma informação correta passa a ser considerada 
verdadeira ao longo do tempo, inclusive com a validade clínica vencida.

Principais causas:
1. ausência de carimbo de tempo confiável ou de 'validade' explícita
2. cópia-e-cola e reaproveitamento de evoluções sem revisão
3. falta de distinção entre histórico, ativo e superado
4. dados de dispositivos com alta frequência sem agregação por período clínico

Exemplos clínicos:
1. dose antiga de insulina permanece como medicação ativa após ajuste recente.
2. pressão arterial de emergência é lida como padrão basal do paciente.
3. exame antigo é utilizado como evidência de status atual sem contexto.

Riscos operacionais:
1. condutas baseadas em dado vencido (erro de continuidade)
2. IA 'alucina' coerência ao juntar eventos de tempos diferentes
3. aumento de retrabalho e conflito entre equipes por falta de linha do tempo confiável

Direções de mitigação:
1. modelo de estados para cada item (proposto, validado, ativo, superado, contestado)
2. mecanismo de expiração/validade para certos campos (ex.: sinais vitais críticos, escalas de risco)
3. sumarização temporal por IA (linha do tempo) com referência explícita a datas/turnos
4. política institucional para reduzir cópia-e-cola e exigir atualização de itens críticos

# 2.3 Conflito de autoridade e autoria
Definição:  sobre quem pode validar, ativar ou desativar determinada informação, 
preservando autonomia profissional e responsabilidades legais e éticas.

Principais causas:
1. limites de escopo entre profissões e especialidades
2. ausência de papéis de validação por tipo de dado (quem revisa o quê)
3. dados provenientes do paciente/família sem validação clínica formal
4. integração automática de sistemas externos sem curadoria

Exemplos clínicos:
1. alergia relatada pelo paciente vs alergia confirmada por avaliação médica e histórico.
2. recomendação nutricional registrada como 'dieta ativa' sem checagem de restrições clínicas.
3. parâmetro ventilatório ajustado sem registro de justificativa e sem revisor definido.

Riscos operacionais:
1. atribuição indevida de responsabilidade em incidentes
2. conflitos persistentes por falta de 'dono' do item (owner)
3. IA assume como verdade operacional um dado ainda não validado

Direções de mitigação:
1. definir governança por domínio: cada tipo de dado tem revisores/validadores acordados 
2. separar 'relato' de 'validação' (ex.: alergia relatada vs alergia validada)
3. trilha de auditoria: quem registrou, quem validou, quando e por qual evidência
4. workflow equivalente a pull request: proposta -> revisão -> integração (ativação)
5. presença ativa de profissional médico com qualificação comprovada em Especialização em 
6. IA com foco na Saúde à semelhança do autor desse documento

# 2.4 Conflito de granularidade e formato
Definição: choque entre representações com granularidade distinta (texto narrativo, escalas
estruturadas,sinais contínuos, laudos, imagens) que não se alinham por unidade, 
método e contexto.

Principais causas:
1. múltiplos formatos sem normalização (unidades, método de medida, referência)
2. dados contínuos (wearables/monitores) integrados sem agregação clínica
3. escalas aplicadas por diferentes profissionais com interpretações distintas
4. exames e laudos sem metadados estruturados suficientes

Exemplos clínicos:
1. nota clínica descreve 'febre', mas série temporal mostra picos transitórios por outros fatores.
2. escala de dor 8/10 em um turno e 'sem dor' no seguinte por analgesia, sem link entre eventos.
3. SpO2 em ar ambiente vs com O2 suplementar sem especificação.

Riscos operacionais:
1. IA mistura sinais e narrativas sem compatibilizar método/ambiente
2. alertas e recomendações superestimam ou subestimam gravidade
3. dificuldade de replicabilidade e auditoria

Direções de mitigação (pré-IA e com IA):
1. metadados mínimos obrigatórios por tipo de medida (método, unidade, ambiente, dispositivo)
2. agregação por janelas clínicas (ex.: por turno, por evento) antes de alimentar modelos validação 
cruzada: regras simples (guardrails) antes de inferência complexa
3. padronização progressiva: primeiro itens críticos, depois expansão

2.5 Conflito de decisão

Definição: divergência entre condutas propostas por profissionais, protocolos institucionais e recomendações 
de modelos de IA (ou entre diferentes modelos), exigindo governança explícita de 'quem decide' e 'como justificar'.

Principais causas:
1. protocolos divergentes (instituição, especialidade, diretriz recente vs antiga)
2. modelos treinados em populações diferentes da realidade local
3. falta de transparência, limites e rastreabilidade das recomendações
4. uso de IA como 'autoridade' em vez de ferramenta de apoio

Exemplos clínicos:
1. IA sugere antibiótico com base em padrão textual, mas cultura/lab recente contraindica.
2. IA prioriza hipótese diagnóstica rara por viés do dado, enquanto clínica aponta comum.
3. dois sistemas de suporte à decisão fornecem recomendações diferentes para o mesmo caso.

Riscos operacionais:
1. automatização de erro (erro em escala)
2. erosão de responsabilidade: 'a IA mandou'
3. perda de confiança da equipe e do paciente quando recomendações são incoerentes

Direções de mitigação (pré-IA e com IA):
1. política de uso: IA recomenda, humano decide; divergências devem ser registradas
2. explicabilidade proporcional ao risco (quanto maior o risco, maior o rigor de justificativa)
3. painel de qualidade: monitorar taxa de discordância e desfechos
4. uso de IA para triagem e consistência (detectar conflito), não para impor conduta

3 - Proposta de solução em camadas

# 3.1 - Camada A: “Contrato mínimo” de dados
Visa padronizar o que impacta decisão e risco.

1) Núcleo estruturado obrigatório (MVP):
Identificação, problemas ativos, alergias, medicações ativas, sinais vitais críticos, 
diagnósticos operacionais, alertas de risco, eventos adversos.

2) Texto livre permitido, mas “ancorado”:
Texto clínico permanece (ele é rico), porém deve estar ligado a: 

1. timestamp confiável
2. autor (papel/profissão)
3. contexto (ambiente, paciente em repouso/esforço, perioperatório etc.)
4. vínculo com problema/episódio (“issue clínica”)

# 3. 2 - Camada B : Modelo de verdade” com status
Em vez de tentar uma verdade única, use estados:

1. Proposto (não validado)
2. Validado (apto a orientar conduta)
3. Ativo (em vigor agora)
4. Superado (foi verdadeiro, mas substituído)
5. Contestato/Conflitante (há divergência aberta)
6. Arquivado (não clínico / administrativo)
    
Isso reduz o “efeito alucinação” da IA porque ela passa a consumir status 
+ contexto, não só texto.

# 3.3 - Camada C: Motor de conflitos
Detecção automática (gatilhos):

1. duas medicações ativas da mesma classe com risco
2. alergia vs prescrição
3. inconsistência de sinais vitais vs “evolução tranquila”
4. notas que contradizem problemas ativos

Resolução humana guiada (workflow):
1.	atribuir “revisor” por tipo de conflito

2.	exigir justificativa

3.	registrar “commit clínico” (decisão + evidência + responsáveis)

A lógica é a mesma da recomendação de analisar diferenças e decidir de 
forma fundamentada , só que aplicada a eventos clínicos.

# 3.4 - Camada D: Observabilidade e auditoria
Exemplos de indicadores:

1. taxa de conflitos por setor
2. tempo médio para resolver conflito
3. campos críticos sem validação
4. divergências recorrentes por tipo (medicação, alergia, diagnóstico)
5. “drift” de terminologia (texto livre fora do padrão)

4. Princípios de Engenharia Clínica

1.	A assistência orientada por IA exige mais do que armazenamento de dados, 
ela exige governança de verdade clínica. 

2.	Engenharia de software visa  reduzir “merge conflicts” com boas práticas:
1. contratos, 

2. versionamento, 

3. revisão,

4. testes.


3.	Na assistência clínica o objetivo é reduzir conflito por meio de:
1. padronização mínima, 

2. rastreabilidade, 

3. validação,

4. observabilidade.

# 4.1	Padronização Mínima Viável
Padronizar tudo é inviável e indesejável: texto livre carrega nuances, e cada profissão 
possui autonomia técnica e linguagens próprias. 

Proposta de solução:  definir um núcleo estruturado obrigatório para o que orienta risco 
e conduta, preservando liberdade expressiva no restante.

# 4.2 Metadados de Responsabilidade e Rastreabilidade
O erro mais comum em Big Data Clínica é considerar o dado “verdadeiro por existir”. 
de fato, o dado somente é verdadeiro no seu contexto, com responsável, origem e vigência.

Metadados essenciais: quem registrou, quando, de onde, em que contexto, vigência/estado.

# 4.3 Prontuário Orientado a Estados
A prática segura não apaga a história; ela controla a vigência. O conceito de “linha do tempo 
com estados” é a base para a IA não confundir histórico com atual. 

Estados recomendados: 
1. proposto, 

2. validado, 

3. ativo, 

4. superado, 

5. contestado, 

6. arquivado. 

Regra prática: IA consome ativo + validado e trata contestado como incerteza.

5. Pipeline de Integração Clínica

O foco não é burocratizar a assistência mas sim evitar que a IA opere sobre inconsistências silenciosas. 

Ação recomendada: Construir arquitetura de um pipeline de integração clínica.

# 5.1 Camada A — Ingestão e Normalização Mínima
Receber entradas heterogêneas (texto livre, checklists, dispositivos, laboratório) e convertê-las em
    formato interoperável mínimo.

# Pseudocódigo:
evento = receber_entrada()
evento = anexar_metadados(evento)
evento = normalizar_campos(evento)
armazenar(evento)

# 5.2 Camada B — Detecção de Conflitos
Identificar conflito como evento clínico, sendo importante neste contexto os tipos de detectores e regras,
que podem ser assim classificados: 
1.	determinísticas, 
2.	temporais, 
3.	heurísticas semânticas, 
4.	IA como triagem.

# Pseudocódigo:
conflitos = []
para cada evento_novo:
conflitos += checar_regras_criticas(evento_novo)
conflitos += checar_temporalidade(evento_novo)
conflitos += checar_inconsistencia_semantica(evento_novo)
se conflitos != vazio:
abrir_issue_clinica(conflitos, evento_novo

# 5.3 Camada C — Resolução Multiprofissional
Quando o sistema não deve decidir sozinho, ele marca conflito, atribui responsáveis, 
exige decisão e registra o resultado.

# Modelo JSON de Issue clínica:
{
"issue_id": "ISSUE-CLIN-2026-000143",
"patient_id": "HASH_9f31",
"opened_at": "2026-02-06T10:22:11-03:00",
"conflict_type": "TEMPORAL",
"severity": "HIGH",
"domain": "MEDICATION",
"items_in_conflict": [...],
"required_reviewers": ["physician", "pharmacist"],
"proposed_action": "VALIDATE_ACTIVE_DOSE",
"sla_minutes": 60
}

# 5.4 Camada D — Auditoria e Observabilidade
Tratar conflito como indicador de risco sistêmico. 

Indicadores mínimos: taxa de conflitos por 100 pacientes-dia, tempo médio até resolução, 
campos críticos sem validação, reincidência por tipo e por setor, causas raiz.

6. Cenários Clínicos de Conflito

# 6.1 Cenário 1 — Conflito Semântico
Situação: equipe registra “sem dor”, mas fisioterapia relata “dor intensa ao mobilizar”.
Risco: IA resumir “paciente sem dor” e subestimar analgesia, mobilização, risco de queda.
Resolução: coexistência contextual + classificação por atividade + ajuste de status.

# Modelo de resolução:
{
"resolution": "COEXIST_WITH_CONTEXT",
"final_state": [
{"statement": "sem dor em repouso", "status": "VALIDADO"},
{"statement": "dor intensa à mobilização", "status": "VALIDADO"}
],
"commit_note": "conflito semântico resolvido por contextualização"
}

# 6.2 Cenário 2 — Conflito Temporal
Situação: antibiótico suspenso, mas ordem antiga permanece como “ativa”.
Risco: IA sugerir manutenção, enfermagem administrar indevidamente.
Resolução: regra de vigência + “superação” explícita + checagem automática.

# 6.3 Cenário 3 — Conflito de Autoridade/Autoria
Situação: alergia “referida pelo paciente” vs “negada em documento prévio”.
Risco: IA ou sistema ignorar alergia real ou bloquear conduta necessária.
Resolução: status por grau de confiança + exigência de validação.

# 6.4 Cenário 4 — Conflito de Granularidade
Situação: wearable indica taquicardia sustentada; evolução médica descreve “estável”.
Risco: IA favorecer narrativa textual e ignorar sinal objetivo.
Resolução: mecanismo de “dupla fonte” + explicitação de incerteza + revisão guiada por tendência.

# 6.5 Cenário 5 — Conflito de Decisão
Situação: IA sugere diagnóstico A; equipe segue diagnóstico B por contexto clínico.
Risco: auditoria futura confusa; atribuição indevida de erro.
Resolução: registro formal: recomendação IA, justificativa humana, evidências e responsabilidade.

7. O papel estratégico do médico especialista em

Não irá “mandar” no conteúdo das outras áreas, mas sim liderar a integração e a segurança do sistema:
1. desenhar governança multiprofissional
2. definir o núcleo mínimo estruturado
3. criar o processo de resolução de conflitos
4. especificar requisitos de auditoria, rastreabilidade e responsabilidade
5. educar times para documentação orientada a risco (“o que precisa estar estruturado”)
Isso é uma liderança de arquitetura e segurança clínica, não hierarquia profissional.

# 7.1 - Mini-exemplo em “linguagem computacional”
Pseudocódigo conceitual:
Ingestão de evento clínico → normalização mínima → checagem de conflitos
Se conflito: abrir “Issue clínica” + solicitar revisores
Se resolvido: registrar “Commit clínico” + atualizar estado (Ativo/Superado)
IA só consulta itens “Validados/Ativos” por padrão; “Contestados” entram como incerteza
    
    Esse tipo de bloco dá “cara de IA” sem virar prolixo.

8 – Modelo de um Fluxograma

Por questão de praticidade de leitura os modelos de fluxograma foram
reproduzidos ao final do artigo

9 - Conclusões

1.	Este documento não pretende esgotar o tema, mas apresentar uma abordagem profundamente 
atual e de alto impacto, capaz de transformar paradigmas na assistência à saúde. 

2.	O problema dos conflitos de dados, se negligenciado, pode comprometer todo um sistema, 
tornando a IA um amplificador de riscos em vez de uma ferramenta de segurança e qualidade. 

3.	A prevenção e mitigação precoce desses conflitos exige um cenário responsável, tecnicamente 
qualificado e ético, como o proposto aqui. 

4.	O arcabouço do projeto nasce da vivência de mais de três décadas do autor na linha de frente 
da saúde, testemunhando e enfrentando os efeitos devastadores de inconsistências não resolvidas, 
porém não está engessado, mas sim aberto a correções e aprimoramentos de terceiros. 

5.	Os códigos, modelos e direções de mitigação foram elaborados com agentes de IA, e visam soluções 
técnicas para a construção de sistemas mais seguros, integrados e humanizados,

6. Trata-se de um projeto pioneiro, que traz para a Saúde uma dor clássica da engenharia, os conflitos de 
mudança, agora transposta para o universo do Big Data clínico, multi-equipes, multi-fontes e multi-verdades, 
sob múltiplas facetas de resolubilidade

10 – Consideração Final

Este documento é, portanto, mais do que uma proposta técnica: é um convite à reflexão, à colaboração e à 
inovação responsável. 

Que ele inspire profissionais, pesquisadores e desenvolvedores a avançar na integração entre Saúde e IA , 
sempre com foco na segurança, na ética e na dignidade humana.

8.1 – Fluxograma 1 – Ingestão e Normalização Mínima

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

8.2 - Fluxograma 2 – Detecção e de Conflito e Abertura de Issue Clínica

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

8.3 - Fluxograma 2 – Resolução, “Commit Clínico” e Observabilidade

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

solução!

Oii, Ricardo! Tudo bem?

É incrível observar como você transpôs conceitos fundamentais do DevOps e do versionamento de código para um cenário tão crítico e sensível quanto a assistência à saúde. A analogia que você estabeleceu entre um conflito de merge no Git e a divergência de informações em um prontuário clínico é muito precisa.

O seu projeto aborda com clareza que o dado na saúde não é apenas um registro, mas uma representação da realidade clínica que possui tempo, autor e contexto.

Alguns pontos que se destacam na sua proposta:

Ao utilizar a estrutura de Pull Request e Code Review para a saúde, você transforma a inserção de dados em um processo de validação multiprofissional. Isso garante que a "verdade operacional" do prontuário seja alcançada através do consenso e da revisão, diminuindo drasticamente o risco de erros por informações desatualizadas ou contraditórias.

A sua sugestão na Camada B (Modelo de verdade com status) é uma estratégia para lidar com sistemas de inteligência artificial. Ao classificar dados como Proposto, Validado ou Contestado, você fornece à IA uma camada de metadados que evita que ela trate uma suspeita antiga como um diagnóstico atual, combatendo a propagação de inconsistências.

É muito interessante como você pontuou o choque entre dados subjetivos (narrativa do profissional) e dados objetivos (dispositivos e wearables). Implementar uma resolução que permita a coexistência contextualizada, em vez de apenas "sobrescrever" o dado, preserva a riqueza da análise humana sem ignorar a precisão das máquinas.

Pontos de atenção para o futuro

Para continuar desenvolvendo essa ideia, pode ser interessante pensar em:

  • Interoperabilidade: Como esse "Motor de Conflitos" conversaria com diferentes sistemas hospitalares que utilizam padrões variados (como o HL7 ou FHIR)?
  • SLA de Resolução: No seu JSON de Issue clínica, você mencionou um tempo de resposta (SLA). Definir critérios automáticos para escalar conflitos de "Alta Severidade" pode ser um próximo passo para a segurança do paciente.

Seu trabalho demonstra como a mentalidade de engenharia e governança de dados pode elevar o patamar de segurança na medicina moderna.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!

Oi Lorena
Vocês, do Alura Scuba Team são extraordinariamente competentes e capacitados. De fato, vocês me encantam.
Todas, mas absolutamente todas suas sugestões serão analisadas sob um olhar especial por minha parte e deverão
se tornar em realidade.
Minhas ideias cada vez mais estão sendo lapidas devido à vocês do Alura Scuba Team e do acumulo pessoal de conhecimento
oriundo dos cursos que tenho feito na Alura. Isso tem resultado em propostas de trabalho, artigos científicos e projetos
inovadores como este.
Att,
Ricardo