Relevância do Profissional Médico 5.0 em uma Equipe de Dev
Por Ricardo Costa Val do Rosário auxiliado por ChatGPT 5.0 Plus
Introdução
- Nos últimos meses, estudando IA aplicada à Saúde e mergulhando na rotina real de
dispositivos médicos (DM), comecei a notar algo que pode se tornar um dos grandes
desafios do futuro próximo:
- Equipes de desenvolvimento que criam soluções para a Saúde, mas sem a presença contínua
de profissionais clínicos com visão técnica, ética e legal.
- A chamada figura do “Médico 5.0” (ou profissional da saúde 5.0) não é alguém que substitui
Devs, Engenheiros ou Cientistas de Dados — mas sim alguém que entende as implicações
clínicas, algorítmicas, éticas, regulatórias e jurídicas de cada decisão tomada no código e,
portanto, muito tem a acrescentar em grupos com esse foco de atuação.
- Para ilustrar essa necessidade, trago três cenários (dois reais, um fictício) que mostram como
agregar profissionais médicos em equipes multidisciplinares pode evitar falhas críticas em soluções
de IA aplicadas à Saúde.
Cenário - Ausência de Alerta de Segurança em DM se PA > 200 mmHg
- Uma queixa técnica (QT) bastante comum é a falta de alarmes de segurança em aparelhos
digitais de pressão normofuncionantes, mas incapazes de emite alerta quando a pressão
sistólica (PS) ultrapassa 200 mmHg.
- Valores de PS > 200 mmHg podem causar um rompimento de uma artéria intra craneana
e assim resultar em um Acidente Vascular Cerebral (AVC) hemorrágico, geralmente muito
sequelante / fatal.
# Origem do problema?
- Ausência de uma regra simples no código.
Código problemático (lógica incompleta)
if sistólica >= 0:
registrar_pressao(sistólica)
# Nenhuma verificação crítica de risco
Código corrigido com verificação clínica essencial
if sistolica >= 0:
registrar_pressao(sistolica)
if sistolica > 200:
emitir_alerta("Crise hipertensiva: risco imediato!")
registrar_evento_critico(sistolica)
Ponderações Cenário 1
1. Um Dev pode olhar para isso e pensar: “é só uma condição IF”.
2. Mas um médico olha e pensa: “uma vida depende disso”.
3. A integração das duas visões evita eventos adversos, reduz litígios e fortalece
aqualidade do software.
Cenário - O algoritmo que aceitou um artigo fraudulento
- Trata-se de um caso real.
- Algoritmo de apoio à decisão recomendou um tratamento baseado em um artigo que
havia sido publicamente denunciado como fraudulento.
- O software não tinha nenhuma lógica que impedisse o uso de artigos retratados.
Código hipotético sem proteção:
def selecionar_artigos(base):
return [artigo for artigo in base if artigo["score"] > 0.8]
Código aprimorado com filtro de fraude/retração
def selecionar_artigos(base, retratados):
artigos_validos = []
for artigo in base:
if artigo["id"] in retratados:
continue # ignora artigos fraudulentos
if artigo["score"] > 0.8:
artigos_validos.append(artigo)
return artigos_validos
Ponderações Cenário 2
- Sem esse filtro, um algoritmo pode replicar um erro científico por anos, como ocorrido.
- Nesse cenário o Profissional Médico 5.0:
1. entende como artigos falhos afetam condutas clínicas,
2. conhece bases de dados de retração,
3. antecipa problemas éticos e práticos,
4. ajuda a evitar recomendações perigosas.
Cenário - Determinação da Culpa por Erro Médico com Base em Falha de Código de Algoritmo
- # Cenário fictício mas possível de ocorrer
- Uma instituição de saúde exige dos médicos que seja acatada as condutas terapêuticas apontadas
pelas ferramentas de IA, cuja margem de erro é de 3%, fato conhecido por todos,
- A TI tem a incumbência de analisar periodicamente todo o sistema de IA da Instituição justamente para
assegurar ausência de erros graves.
- Ocorreu um erro médico que baseou seu plano terapêutico em um algoritmo de diagnóstico médico de
de IA que continua Um defeito relacionado a fase de Deep Learning, até então desconhecido.
- A medicação prescrita pelo médico se relaciona de modo inequívoco com o desfecho fatal do caso
- Foi realizada uma denúncia de erro médico por imperícia, tanto na esfera civil quanto criminal.
- A Justiça Cível solicita parecer de quem é a responsabilidade?
- O Conselho Federal de Medicina alega que somente no caso do médico conhecer linguagem de
computação poderá ser dado a ele a culpabilidade do erro induzido por algoritmos de IA.
- PERGUNTA-SE:
1. do médico que seguiu o algoritmo?
2. do programador?
3. do hospital que impôs o uso?
4. do gestor responsável pela governança da IA?
5. do fornecedor?
6. do acaso?