O uso de Inteligência Artificial no ciclo de avaliação de desempenho traz benefícios operacionais, mas também apresenta riscos éticos e de conformidade com a Lei Geral de Proteção de Dados (LGPD).
No Caso 1, a avaliação automatizada baseada apenas em métricas quantitativas pode gerar injustiças, ignorando contribuições qualitativas como colaboração, mentoria e impacto estratégico. Além disso, pode haver violação dos princípios da LGPD, como finalidade, necessidade e transparência, especialmente se decisões relevantes forem tomadas de forma exclusivamente automatizada. A solução envolve adoção de modelo híbrido (quantitativo + qualitativo), revisão humana obrigatória, auditoria de vieses e maior transparência no processo.
No Caso 2, o feedback gerado por IA pode se tornar genérico, descontextualizado e impreciso, prejudicando a confiança dos colaboradores. Há riscos relacionados à qualidade dos dados e à falta de transparência sobre o uso da tecnologia. Recomenda-se que a IA seja utilizada apenas como apoio, com validação e personalização obrigatória pelo gestor, além de garantir o direito de contestação.
No Caso 3, o monitoramento contínuo por IA pode gerar sensação de vigilância excessiva, afetando a saúde emocional e o clima organizacional. Do ponto de vista da LGPD, é essencial respeitar os princípios de necessidade, proporcionalidade e transparência. As soluções incluem limitar a coleta de dados ao mínimo necessário, priorizar métricas de resultado em vez de micro monitoramento, estabelecer políticas claras e realizar Relatório de Impacto à Proteção de Dados.