Uma recente investigação conduzida pela Universidade de São Paulo (USP) acende um sinal de alerta sobre a crescente adoção da inteligência artificial (IA) nas etapas de seleção de candidatos. Embora a tecnologia prometa maior eficiência, padronização e redução de custos para as empresas, o estudo aponta para desafios consideráveis, como a possibilidade de vieses algorítmicos, práticas discriminatórias, diminuição da diversidade nas organizações e uma experiência menos humana para os participantes.
A pesquisa, detalhada no Jornal da USP e resultado do doutorado da pesquisadora Humberta Silva, destaca uma transformação no papel dos profissionais de recursos humanos. Antes responsáveis pela tomada de decisão final, esses recrutadores agora se dedicam mais à supervisão dos sistemas automatizados.
Desafios da IA na seleção
A tese enfatiza que, apesar dos benefícios, a inteligência artificial não opera de forma neutra. Ela tende a reproduzir e até intensificar os vieses presentes tanto nos dados com os quais é treinada quanto naqueles que a programam. Essa característica pode perpetuar desigualdades sociais e limitar a análise de aspectos subjetivos e capacidades individuais dos candidatos.
“O processo está mais distante e desumanizado. Com isso, há limitações para uma análise precisa das capacidades do candidato pela dificuldade em identificar aspectos subjetivos.”
Entre as principais questões levantadas pela investigação, destacam-se:
- Viés algorítmico e discriminação, que podem se manifestar por gênero, raça, classe social e origem.
- Redução da diversidade organizacional, à medida que os filtros automáticos podem priorizar candidatos com maior capital cultural.
- Efeitos emocionais negativos em quem busca emprego e nos próprios recrutadores, gerando uma sensação de despersonalização.
- Obstáculos culturais e linguísticos, que complicam processos globais, especialmente em multinacionais.
- A modificação da função dos recrutadores, que passam a gerenciar sistemas e podem ter dúvidas sobre suas próprias habilidades.
Recomendações para uso ético
A pesquisa sugere que a maneira de superar esses obstáculos está na implementação de supervisão humana rigorosa, na aplicação de princípios éticos e na sensibilidade ao contexto social. O objetivo é evitar que a IA reforce desigualdades já existentes na sociedade. Para isso, são indicadas as seguintes ações:
- Envolvimento de profissionais de recursos humanos no desenvolvimento das ferramentas digitais.
- Criação colaborativa de ferramentas (codesign) com participação ativa do RH para garantir sua adequação à realidade das organizações.
- Realização de auditorias contínuas dos sistemas.
- Investimento na formação dos profissionais de seleção para que utilizem a tecnologia de forma responsável.
- Adoção de transparência e regulação para mitigar riscos e assegurar justiça nas decisões automatizadas.
- Adaptação dos sistemas à realidade brasileira para preservar e fomentar a diversidade.
O estudo também aponta para o impacto da desigualdade no acesso à tecnologia no Brasil, onde muitos candidatos podem ser automaticamente desconsiderados por critérios automatizados que carecem de transparência ou são culturalmente restritos. A tese de Humberta Silva foi apresentada na Faculdade de Economia, Administração, Contabilidade e Atuária (FEA) da Universidade de São Paulo, na capital paulista. O trabalho inclui uma análise qualitativa de estudos comunitários e casos no Brasil e na Alemanha, utilizando metodologias avançadas para mapear as consequências práticas e éticas da IA nos recursos humanos.