Solucionado (ver solução)
Solucionado
(ver solução)
6
respostas

Dados, Lei e Algoritmos do Big ao Small Data — E, por falar em Ética?

Insira aqui a descrição dessa imagem para ajudar na acessibilidade

“A tecnologia pode nos dar poder, mas só a ética nos dá direção. 
O futuro da inteligência artificial não será definido pelo que conseguimos programar, mas pelo que escolhemos 
preservar como humanos.”

Por Ricardo Costa Val do Rosario assistido por Microsoft Copilot 365

1. Limitações de Acessos em relação às IA

- As IAs não têm acesso irrestrito a toda a literatura humana, mesmo a que é “publicamente livre”. O que acontece é o seguinte:
1. Treinamento: 
- Treinadas em uma mistura de dados licenciados, dados de domínio público e outros conteúdos disponíveis publicamente. 
- Isso não significa que elas tenham acesso contínuo a todos os livros, artigos ou bases de dados do mundo.
2. Acesso em tempo real: 
- IA (s) conseguem buscar informações na web aberta, mas sempre dentro de limites técnicos e legais.
- Não podem “varrer” bibliotecas inteiras ou acessar conteúdos protegidos por direitos autorais sem autorização.
3. Instituições e curadoria: 
- Há uma curadoria feita pelas instituições que desenvolvem e mantêm a IA (como a Microsoft).
- Isso garante que não se use dados privados, sensíveis ou ilegais.
4. Limite importante: 
- Até mesmo quando um texto é público, como um artigo acadêmico ou um livro em domínio público, não se 
pode ler tudo automaticamente, somente aquilo levado a elas  ou com o que está disponível em buscas abertas.

2. Limites Legais e Regulatórios

1. LGPD no Brasil: 
- Estabelece princípios de finalidade, adequação, necessidade e segurança no tratamento de dados pessoais. 
- É a base para qualquer aplicação de IA que envolva informações de indivíduos.
2. Marcos internacionais: 
- União Europeia (AI Act), EUA (frameworks setoriais) e UNESCO (Recomendação sobre Ética da IA) 
apontam para convergência em transparência, avaliação de risco e direitos fundamentais.
3. Prática: 
- Empresas devem alinhar seus sistemas de IA não apenas à LGPD, mas também a padrões globais, 
pois a circulação de dados e produtos é transnacional.

3. Diferenças entre Domínio Público, Conteúdo Licenciado e Conteúdo Protegido

1. Domínio Público
- Refere-se a materiais que não estão mais sob proteção legal de direitos autorais ou nunca estiveram. 
I- sso significa que qualquer pessoa pode usar, copiar e distribuir esses conteúdos livremente, sem necessidade 
de autorização ou pagamento de licenças.
2. Conteúdo Licenciado
- Consiste em materiais que estão protegidos por direitos autorais, mas cujo uso foi permitido mediante licença. 
- Normalmente, isso envolve acordos específicos que autorizam o uso, distribuição ou modificação do conteúdo 
conforme estabelecido pelo detentor dos direitos.
3. Conteúdo Protegido
- Abrange obras que permanecem sob direitos autorais sem autorização explícita para uso. 
- A utilização, cópia ou distribuição desses materiais requer permissão do titular dos direitos, e o acesso é restrito para 
evitar violações legais.
4. Implicações para o Uso por Inteligência Artificial
- Uma IA pode utilizar conteúdos de domínio público, pode acessar conteúdos licenciados conforme os termos das licenças, 
- Mas não pode usar conteúdos protegidos sem autorização. Essa distinção garante respeito aos direitos autorais e à legislação 
vigente.

4. Exemplos

Validação de consentimento e minimização de dados na ingestão

from pydantic import BaseModel, Field, ValidationError
from datetime import datetime

class Consent(BaseModel):
    user_id: str
    purpose: str
    given_at: datetime
    expires_at: datetime
    lawful_basis: str = Field(pattern=r"(consent|contract|legal_obligation|vital_interests|public_task|legitimate_interest)")

class UserEvent(BaseModel):
    user_id: str
    event_type: str

    # Minimização: só o necessário
    timestamp: datetime
    # Evitar campos sensíveis por padrão
    # extra fields rejected

def can_process(consent: Consent, purpose: str, now: datetime) -> bool:
    return consent.purpose == purpose and consent.given_at <= now <= consent.expires_at

try:
    consent = Consent(
        user_id="123",
        purpose="analytics",
        given_at=datetime(2025,1,1),
        expires_at=datetime(2026,1,1),
        lawful_basis="consent"
    )
    event = UserEvent(user_id="123", event_type="pageview", timestamp=datetime.utcnow())
    if can_process(consent, "analytics", datetime.utcnow()):
     
         # Processar com pseudonimização
        pseudonymous_id = hash(event.user_id)
         # Armazenar apenas o necessário
        print({"id": pseudonymous_id, "type": event.event_type, "ts": event.timestamp.isoformat()})
    else:
        print("Consentimento inválido ou expirado.")
except ValidationError as e:
    print("Erro de validação:", e)

Matricule-se agora e aproveite até 50% OFF

O maior desconto do ano para você evoluir com a maior escola de tecnologia

QUERO APROVEITAR
6 respostas

Pseudonimização e retenção segura

import hashlib
from datetime import datetime, timedelta

def pseudonymize(user_id: str, secret_salt: str) -> str:
    return hashlib.sha256((secret_salt + user_id).encode()).hexdigest()

class StoragePolicy:
    def __init__(self, retention_days: int):
        self.retention_days = retention_days
    def should_delete(self, created_at: datetime, now: datetime) -> bool:
        return now - created_at > timedelta(days=self.retention_days)

secret_salt = "rotate-me-regularly"
pid = pseudonymize("user-abc", secret_salt)

policy = StoragePolicy(retention_days=30)
created_at = datetime(2025, 9, 1)
if policy.should_delete(created_at, datetime(2025, 10, 14)):
    # Remover dados + manter apenas estatísticas agregadas
    pass

Detecção de eventos raros em small data (classificação desbalanceada)

import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.metrics import f1_score
from sklearn.linear_model import LogisticRegression
from imblearn.over_sampling import SMOTE

X = np.random.randn(400, 10)
y = np.zeros(400); y[:20] = 1  # 5% positivos (evento raro)

X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.3, random_state=42)

Reamostragem para lidar com desbalanceamento

sm = SMOTE(random_state=42)
X_res, y_res = sm.fit_resample(X_train, y_train)

clf = LogisticRegression(max_iter=1000, class_weight="balanced")
clf.fit(X_res, y_res)
pred = clf.predict(X_test)
print("F1:", f1_score(y_test, pred))

5. Desafios de Cibercrime e Compliance

1. Ameaças e táticas
- Os cibercriminosos exploram brechas legais e técnicas para evitar a aplicação da lei. Eles utilizam técnicas de 
anonimização, redes privadas e tiram proveito de jurisdições fracas para evitar a responsabilização.

2. Obstáculos práticos
- A cooperação internacional no combate ao crime cibernético continua lenta e inconsistente, o que dificulta a ação 
penal e a responsabilização eficazes. A proteção depende muito de auditorias regulares, práticas robustas de criptografia 
e esforços contínuos de monitoramento.

3. Os desafios incluem o grande volume de evidências digitais, perda de dados devido a curtos períodos de retenção e 
barreiras legais e técnicas ao acesso transfronteiriço. 

4. O uso de serviços de anonimização, como VPNs e Tor, bem como a diversidade de formatos de dados e provedores de 
serviços, complicam ainda mais as investigações.

5. Ferramentas Jurídicas e Cooperação Internacional
- A cooperação internacional e os instrumentos jurídicos emergentes, como os pacotes de provas eletrônicas, visam resolver 
estas questões. No entanto, seu sucesso depende de uma implementação eficaz.

6. Capacidade Institucional
- Após a pandemia, a digitalização acelerou e os incidentes de crimes cibernéticos aumentaram, revelando lacunas nos relatórios 
de incidentes, harmonização e recursos forenses. 
- A natureza sem fronteiras do crime cibernético complica a coordenação entre a polícia, o governo e o setor privado. 
Estruturas como a Convenção de Budapeste e o fortalecimento das competências institucionais são essenciais para enfrentar
esses desafios. 

6. Ética e IA: estado atual global

•	Padrões multilaterais: desde 2021, a Recomendação da UNESCO sobre Ética da IA estabeleceu um 
padrão internacional, com fóruns globais periódicos para acompanhar implementação, avaliação de prontidão e
impacto ético. 
- Em 2025, o Fórum Global da UNESCO destaca avanços práticos e coordenação internacional, incluindo observatórios 
e redes de especialistas UNESCO ircai.org.

•	Lacunas percebidas: apesar da proliferação de ferramentas e anúncios, a paisagem é fragmentada e muitas 
abordagens mantêm viés ocidental, sem incorporar suficientemente perspectivas regionais e culturais diversas. 
Há esforços para pontes interculturais e governança inclusiva, mas a prática ainda corre atrás da adoção tecnológica 
Technology Magazine.

•	Brasil e convergência: 
- O debate legislativo brasileiro sobre IA segue a tendência de risco e transparência, com sandboxes e obrigações 
setoriais, buscando compatibilizar inovação com direitos fundamentais e proteção de dados (LGPD). 
- A efetividade virá da implementação, fiscalização e capacidade institucional. 
Chambers and Partners Global Policy Watch.

7. Big data e small data em ML e deep learning

•	Definição de big data: conjuntos massivos, variados e velozes de dados (os “4V”: volume, variedade, velocidade, veracidade), frequentemente não estruturados, que exigem arquiteturas e ferramentas especializadas para captura, armazenamento 
e análise.  Em ML, big data é o “combustível” que permite treinar modelos robustos e generalizáveis
GeeksForGeeks.

•	Definição de small data: conjuntos menores e frequentemente escassos, caros ou difíceis de obter (por exemplo, 
em domínios  industriais, médicos ou com eventos raros). Desafios típicos incluem dados não rotulados, desbalanceados,
faltantes e ocorrência de raros, exigindo técnicas de regularização, data augmentation, transferência de aprendizado
e modelos  “few-shot” arXiv.org Springer.

•	Relação com ML/DL: big data favorece modelos de alta capacidade, enquanto small data exige engenharia de atributos, 
conhecimento de domínio e estratégias de generalização com menos exemplos (transfer learning, pré-treinados, validação rigorosa). 
A pesquisa recente  tem democratizado DL com métodos para pequenos datasets, reduzindo a “desigualdade de dados” entre big techs 
e organizações menores.

•	Prática: enquanto big data favorece grandes corporações, small data é a realidade de startups, hospitais e indústrias locais,
que precisam extrair valor de conjuntos limitados.

8 . Boas Práticas de Fabricação de Dispositivos Médicos (DM)

- No Brasil, a ANVISA regula esse tema por meio da RDC nº 687/2022, que estabelece os critérios para concessão e 
renovação da Certificação de Boas Práticas de Fabricação de Dispositivos Médicos Anatel CBDL – Câmara Brasileira 
de Diagnóstico Laboratorial.

# Regras e Boas Práticas de Fabricação de Dispositivos Médicos (DM)
1. Gestão da Qualidade
•	Implantar um Sistema de Gestão da Qualidade (SGQ) robusto, documentado e auditável.
•	Garantir rastreabilidade de matérias-primas, processos e produtos finais.

2. Controle de Projeto e Desenvolvimento
•	Documentar todas as etapas de concepção, prototipagem, testes e validação.
•	Avaliar riscos clínicos e de segurança antes da liberação.

3. Processos de Produção
•	Áreas limpas e controladas (quando aplicável).
•	Procedimentos padronizados (POPs) para cada etapa.
•	Validação de processos críticos (esterilização, calibração, software embarcado).

4. Controle de Fornecedores
•	Qualificação e monitoramento contínuo de fornecedores de insumos e componentes.
•	Auditorias periódicas para garantir conformidade.

5. Gestão de Risco
•	Aplicar a ISO 14971 (Gestão de Risco para Dispositivos Médicos).
•	Identificar, avaliar e mitigar riscos em todo o ciclo de vida do produto.

6. Pós-Mercado
•	Monitoramento de desempenho e segurança após a comercialização.
•	Sistema de notificação de eventos adversos e recall quando necessário.

7. Conexão com Ética e IA
- Hoje, muitos dispositivos médicos já incorporam IA (ex.: softwares de diagnóstico, wearables, algoritmos de triagem). 
Isso amplia a responsabilidade ética:
•	Transparência nos algoritmos.
•	Explicabilidade dos resultados.
•	Proteção de dados sensíveis (LGPD).
•	Responsabilidade compartilhada entre fabricante, médico e regulador.

9. Ética e Inteligência Artificial

1. Questão central: a ética em IA não é acessório, mas infraestrutura. Sem ela, modelos podem reproduzir vieses, 
comprometer direitos e gerar riscos sociais.

2. Padrões globais: a UNESCO estabeleceu diretrizes éticas universais, mas a implementação ainda é desigual.
- O Brasil discute seu próprio marco legal de IA, inspirado em abordagens de risco.

3. Prática: profissionais devem exigir explicabilidade, transparência e responsabilidade em sistemas de IA, 
especialmente em áreas críticas como saúde, justiça e segurança.
- Quando falamos de DM (Dispositivos Médicos), o paralelo com Boas Práticas de Fabricação (BPF ou GMP –
Good Manufacturing  Practices) é inevitável e essencial.

10. Reflexões

1. O ponto nevrálgico da transformação que estamos vivendo: hoje, a medicina, a tecnologia da informação e a legislação 
caminham em paralelo, mas o futuro exige profissionais que consigam transitar entre esses mundos.

2. O TI sem medicina: pode dominar arquitetura de sistemas, segurança e algoritmos, mas não tem a vivência clínica para 
compreender nuances de diagnóstico, protocolos terapêuticos ou impacto humano de uma decisão automatizada.

3. O médico sem TI: pode entender o ciclo de um dispositivo médico, mas sem noção de linguagem de programação, 
interoperabilidade de sistemas ou governança de dados, fica limitado a ser apenas usuário — e não protagonista — 
da inovação.

4. O jurista sem ciência: pode legislar, mas sem compreender a essência técnica, corre o risco de criar normas ineficazes 
ou descoladas da realidade.

5. O médico de bagagem híbrida: apesar de ainda ser um perfil bem raro, um profissional médico que entende de IA, 
de legislação, de boas práticas de fabricação e de ética aplicada será indispensável amanhã.

6. Nossas escolhas, nosso futuro: 
A convergência entre dados, lei, dispositivos médicos e ética em IA mostra que não basta dominar técnicas
de machine learning. É preciso integrar ciência, regulação e responsabilidade social. O futuro da tecnologia será definido não 
apenas pelo que podemos construir, mas pelo que escolhemos construir.

7. Tendência inevitável: hospitais, startups de saúde digital, agências regulatórias e até tribunais vão precisar de profissionais 
que falem as duas línguas — a da medicina e a da computação.

8. Pesquisa e ensino: formar médicos que saibam dialogar com engenheiros de dados e cientistas da computação será diferencial
estratégico. 

9. Nascimento de uma nova carreira profissional médica:
A intersecção médico-cientista de dados, ou o médico-regulador de IA aponta para onde estarão as maiores oportunidades —
e também as maiores responsabilidades. Em pouco tempo, a pergunta não será “se” vão procurar médicos com essa formação,
mas “quantos existem disponíveis” — e a resposta será: muito poucos,  por diversas razões. 

11. Ensaio

Dados, Lei e Algoritmos: do Big ao Small Data — E, por falar em Ética?

Vivemos em uma era em que os dados se tornaram o novo petróleo, mas também o novo risco.  O discurso sobre big data
costuma destacar o poder de treinar modelos robustos com volumes massivos de informação. No entanto, a realidade prática 
e muitos setores — especialmente saúde, indústria e pesquisa aplicada — é o small data: conjuntos escassos, caros e sensíveis.
É nesse cenário que técnicas como transferência de aprendizado, data aumentativo e validação rigorosa se tornam não apenas 
ferramentas, mas condições de sobrevivência para projetos de IA.

Ao mesmo tempo, não podemos falar de dados sem falar de lei. No Brasil, a LGPD trouxe princípios claros: finalidade, adequação,
necessidade e segurança. Esses pilares não são burocracia, mas sim a base de confiança para qualquer sistema que manipule informações pessoais.

E, como a circulação de dados é global, não basta olhar apenas para a LGPD: o AI Act europeu, os frameworks norte-americanos e a Recomendação da UNESCO sobre Ética da IA já moldam o cenário internacional.

Mas a lei, sozinha, não basta. O cibercrime cresce em velocidade superior à capacidade de fiscalização. Hackers exploram anonimização, jurisdições frágeis e brechas técnicas para escapar da responsabilização. A resposta exige cooperação internacional, auditorias 
constantes e, sobretudo, a adoção de privacy by design: segurança e ética incorporadas desde a concepção dos sistemas.

No campo da saúde, a discussão ganha contornos ainda mais delicados. Dispositivos Médicos (DM), regulados pela ANVISA e pela RDC 687/2022, precisam seguir Boas Práticas de Fabricação. Isso significa rastreabilidade, controle de fornecedores, validação de processos críticos e monitoramento pós-mercado. 

Quando esses dispositivos incorporam IA, como softwares de diagnóstico (SaMD), a responsabilidade se multiplica: não basta que o algoritmo funcione, ele precisa ser explicável, auditável e seguro.

E aqui chegamos ao ponto central: ética. A ética em IA não é ornamento, mas infraestrutura. Sem ela, corremos o risco de reproduzir vieses, comprometer direitos e gerar danos sociais irreversíveis. 

A UNESCO já estabeleceu diretrizes universais, mas a implementação ainda é desigual. O Brasil discute seu próprio marco legal de IA, inspirado em abordagens de risco, mas a prática dependerá da capacidade institucional de fiscalizar e da maturidade das empresas 
em adotar padrões éticos.

No fim, a convergência entre dados, lei, dispositivos médicos e ética mostra que não basta dominar técnicas de machine learning. 
O futuro da tecnologia será definido não apenas pelo que podemos construir, mas pelo que escolhemos construir. 

E, por falar em ética, talvez o maior desafio não seja técnico, mas cultural: transformar a ética em parte do DNA de cada projeto, de cada linha de código, de cada decisão.

12. Conclusão Final

O profissional que une medicina, tecnologia e legislação não será apenas um especialista, mas um tradutor de mundos. Esse perfil híbrido será indispensável para hospitais, startups, reguladores e universidades. O que hoje parece diferencial, amanhã será requisito. Médicos com essa bagagem estarão na vanguarda de uma nova era, em que ciência, ética e tecnologia caminham juntas
  1. Manifesto Pessoal
1.	Sou médico de corpo e alma, porque nunca tratei apenas um órgão, mas sempre um ser humano inteiro.
2.	Vejo a medicina além da técnica, como ciência que dialoga com ética, lei e tecnologia.
3.	Entendo que dados não são números, mas histórias humanas codificadas que merecem respeito e cuidado.
4.	Acredito que a ética é infraestrutura, sem a qual nenhum algoritmo ou dispositivo médico é legítimo.
5.	Construo pontes entre mundos distintos — clínica, ciência de dados, legislação e filosofia — para que a inovação nunca se afaste da dignidade humana.


Esse manifesto é um retrato fiel de quem é Ricardo Costa Val do Rosario e do que representa.

Esse manifesto é um retrato fiel de quem é Ricardo Costa Val do Rosario e do que representa.

Oi, Ricardo! Como vai?

Agradeço por compartilhar suas reflexões e aprendizados com a comunidade Alura. É sempre ótimo acompanhar sua dedicação aos estudos!

Gostei da forma como você conectou ética, lei e inteligência artificial, destacando a importância de equilibrar tecnologia e responsabilidade humana. Essa visão é muito alinhada às discussões sobre o papel da IA em contextos sociais e regulatórios.

Continue explorando essa integração entre áreas distintas e colocando o conhecimento em prática. Sucesso!

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!
solução!

Rafael, sua objetividade, competência e erudição são verdadeiramente notáveis. Muito obrigado, Ricardo.