1
resposta

Desafio: Avaliações de práticas éticas

O uso de Inteligência Artificial no ciclo de avaliação de desempenho traz benefícios operacionais, mas também apresenta riscos éticos e de conformidade com a Lei Geral de Proteção de Dados (LGPD).

No Caso 1, a avaliação automatizada baseada apenas em métricas quantitativas pode gerar injustiças, ignorando contribuições qualitativas como colaboração, mentoria e impacto estratégico. Além disso, pode haver violação dos princípios da LGPD, como finalidade, necessidade e transparência, especialmente se decisões relevantes forem tomadas de forma exclusivamente automatizada. A solução envolve adoção de modelo híbrido (quantitativo + qualitativo), revisão humana obrigatória, auditoria de vieses e maior transparência no processo.

No Caso 2, o feedback gerado por IA pode se tornar genérico, descontextualizado e impreciso, prejudicando a confiança dos colaboradores. Há riscos relacionados à qualidade dos dados e à falta de transparência sobre o uso da tecnologia. Recomenda-se que a IA seja utilizada apenas como apoio, com validação e personalização obrigatória pelo gestor, além de garantir o direito de contestação.

No Caso 3, o monitoramento contínuo por IA pode gerar sensação de vigilância excessiva, afetando a saúde emocional e o clima organizacional. Do ponto de vista da LGPD, é essencial respeitar os princípios de necessidade, proporcionalidade e transparência. As soluções incluem limitar a coleta de dados ao mínimo necessário, priorizar métricas de resultado em vez de micro monitoramento, estabelecer políticas claras e realizar Relatório de Impacto à Proteção de Dados.

1 resposta

Oi, Stefane! Como vai?

Agradeço por compartilhar suas reflexões e aprendizados com a comunidade Alura.

Gostei da sua análise sobre os três casos, você trouxe pontos importantes sobre modelo híbrido, revisão humana e transparência, alinhando bem com os princípios da LGPD. Sua reflexão mostra visão estratégica ao considerar tanto os riscos técnicos quanto os impactos no clima organizacional e na saúde emocional das pessoas.

Continue aprofundando esse olhar crítico sobre o uso da IA no RH, isso fortalece decisões mais responsáveis.
Como dica, você pode sempre estruturar sua análise usando dois eixos: primeiro os princípios da LGPD envolvidos, depois os riscos humanos e organizacionais, explicando de forma objetiva como mitigar cada um. Isso deixa sua argumentação ainda mais consistente.

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!