Solucionado (ver solução)
Solucionado
(ver solução)
3
respostas

Relevância do Profissional Médico 5.0 em uma Equipe de Dev

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

Relevância do Profissional Médico 5.0 em uma Equipe de Dev

Por Ricardo Costa Val do Rosário auxiliado por ChatGPT 5.0 Plus

Introdução

- Nos últimos meses, estudando IA aplicada à Saúde e mergulhando na rotina real de 
dispositivos médicos (DM), comecei a notar algo que pode se tornar um dos grandes 
desafios do futuro próximo: 

- Equipes de desenvolvimento que criam soluções para a Saúde, mas sem a presença contínua 
de profissionais clínicos com visão técnica, ética e legal.

- A chamada figura do “Médico 5.0” (ou profissional da saúde 5.0) não é alguém que substitui 
Devs, Engenheiros ou  Cientistas de Dados — mas sim alguém que entende as implicações 
clínicas, algorítmicas, éticas, regulatórias e jurídicas  de cada decisão tomada no código e, 
portanto, muito tem a acrescentar em grupos com esse foco de atuação.

- Para ilustrar essa necessidade, trago três cenários (dois reais, um fictício) que mostram como 
agregar profissionais médicos em equipes multidisciplinares pode evitar falhas críticas em soluções 
de IA aplicadas à Saúde.

Cenário - Ausência de Alerta de Segurança em DM se PA > 200 mmHg

- Uma queixa técnica (QT) bastante comum é a falta de alarmes de segurança em aparelhos 
digitais de pressão normofuncionantes, mas incapazes de emite alerta quando a pressão
sistólica (PS) ultrapassa 200 mmHg.

- Valores de PS > 200 mmHg podem causar um rompimento de uma artéria  intra craneana 
e assim resultar em um Acidente Vascular Cerebral (AVC) hemorrágico, geralmente muito 
sequelante / fatal. 

    # Origem do problema? 
- Ausência de uma regra simples no código.

Código problemático (lógica incompleta)

if sistólica >= 0:
    registrar_pressao(sistólica)
# Nenhuma verificação crítica de risco

Código corrigido com verificação clínica essencial

if sistolica >= 0:
    registrar_pressao(sistolica)

if sistolica > 200:
    emitir_alerta("Crise hipertensiva: risco imediato!")
    registrar_evento_critico(sistolica)

Ponderações Cenário 1

1. Um Dev pode olhar para isso e pensar: “é só uma condição IF”.
2. Mas um médico olha e pensa: “uma vida depende disso”.
3. A integração das duas visões evita eventos adversos, reduz litígios e fortalece 
aqualidade do software.

Cenário - O algoritmo que aceitou um artigo fraudulento

- Trata-se de um caso real.

- Algoritmo de apoio à decisão recomendou um tratamento baseado em um artigo que 
havia sido publicamente denunciado como fraudulento.

- O software não tinha nenhuma lógica que impedisse o uso de artigos retratados.

Código hipotético sem proteção:

def selecionar_artigos(base):
    return [artigo for artigo in base if artigo["score"] > 0.8]

Código aprimorado com filtro de fraude/retração

def selecionar_artigos(base, retratados):
    artigos_validos = []

    for artigo in base:
        if artigo["id"] in retratados:
            continue  # ignora artigos fraudulentos
        if artigo["score"] > 0.8:
            artigos_validos.append(artigo)

    return artigos_validos

Ponderações Cenário 2

- Sem esse filtro, um algoritmo pode replicar um erro científico por anos, como ocorrido.

- Nesse cenário o Profissional Médico 5.0:
1. entende como artigos falhos afetam condutas clínicas,
2. conhece bases de dados de retração,
3. antecipa problemas éticos e práticos,
4. ajuda a evitar recomendações perigosas.

Cenário - Determinação da Culpa por Erro Médico com Base em Falha de Código de Algoritmo

- # Cenário fictício mas possível de ocorrer

- Uma instituição de saúde exige dos médicos que  seja acatada as condutas terapêuticas apontadas
pelas ferramentas de IA, cuja margem de erro é de 3%, fato conhecido por todos, 

- A TI tem a incumbência de analisar periodicamente todo o sistema de IA da Instituição justamente para 
assegurar ausência de erros graves. 

- Ocorreu um erro médico que baseou seu plano terapêutico em um algoritmo de diagnóstico médico de 
de IA que continua Um defeito relacionado a fase de Deep Learning, até então desconhecido.

- A medicação prescrita pelo médico se relaciona de modo inequívoco com o desfecho fatal do caso

-  Foi realizada uma denúncia de erro médico por imperícia, tanto na esfera civil quanto criminal.

- A Justiça Cível solicita parecer de quem é a responsabilidade?

- O Conselho Federal de Medicina alega que somente no caso do médico conhecer linguagem de 
computação poderá ser dado a ele a culpabilidade do erro induzido por algoritmos de IA.

- PERGUNTA-SE:

1. do médico que seguiu o algoritmo?
2. do programador?
3. do hospital que impôs o uso?
4. do gestor responsável pela governança da IA?
5. do fornecedor?
6. do acaso?

Matricule-se agora e aproveite até 50% OFF

O maior desconto do ano para você evoluir com a maior escola de tecnologia

QUERO APROVEITAR
3 respostas

Ponderações Cenário 3


1. Neste momento, muitos países e também o Brasil ainda não têm resposta 
definitiva.

2. Esse cenário abre um dos debates mais importantes do futuro:

3. Quando um algoritmo erra, quem erra?
- Este debate exige profissionais que entendam:
1. funcionamento clínico,
2. desenvolvimento de modelos,
3. governança,
4. ética,
5. regulamentação,
6. responsabilidade jurídica.

4. É justamente aqui que o Profissional Médico 5.0 se torna indispensável em qualquer 
equipe de Dev que atua na área da saúde.

Reflexão aberta para a comunidade Alura

- A Saúde está entrando em uma era em que algoritmos, DM e IA generativa vão orientar cada 
vez mais decisões clínicas.

- Mas quem garante que tudo isso está clínica e eticamente correto?

- Quem sabe interpretar o impacto do código no paciente?

- Quem é capaz de auditar um algoritmo não apenas tecnicamente, mas também medicamente?

- Considero que o futuro aponta para a formação de um novo tipo de profissional médico com
capacidade de unir Medicina, IA, governança, ética, responsabilidade técnica e cujas ações sejam 
agregadores de valor a um grupo de Dev, TI e engenheiros de computação, dentre outros. 

- Gostaria de ouvir a opinião da comunidade Alura sobre isso:
1. Devs concordam que a presença de um médico poderia evitar esses erros?
2. A área da Saúde está preparada para integrar profissionais híbridos?
3. Devemos criar formações específicas para isso?

- Vamos discutir juntos — este é um tema que vai impactar milhões de vidas.

Olá, Ricardo! Como vai?

Gostei demais da abordagem crítica e bem fundamentada sobre a importância do Médico 5.0 nas equipes de desenvolvimento!

Sua resposta mostra uma excelente capacidade de contextualização prática com os três cenários apresentados, além de destacar com clareza os riscos clínicos e éticos envolvidos na ausência de profissionais médicos em projetos de IA na Saúde. Também é notável a forma como os trechos de código foram utilizados para ilustrar falhas e correções, tornando o conteúdo acessível e didático.

Uma sugestão para o futuro seria incluir referências ou links para bases de dados de artigos retratados, para enriquecer ainda mais o conteúdo técnico e facilitar a consulta dos leitores.

Fico à disposição! E se precisar, conte sempre com o apoio do fórum.

Abraço e bons estudos!

AluraConte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!
solução!

Daniel, agradeço pela análise e me comprometo a transformar sua sugestão em uma rotina.
Obrigado,
Ricardo