Uso de algoritmos em análise de currículo pode gerar seleção enviesada

Saída pode ser aumento das etapas de cadastro para as vagas

São Paulo – No mundo globalizado, o processo de seleção para vagas de emprego que recebem dezenas ou centenas de currículos pode ser uma tarefa bastante complicada, e é natural que tecnologias como a inteligência artificial e o aprendizado de máquina sejam usadas para ajudar os setores de recursos humanos das empresas. Assim como o setor financeiro é alterado pelas fintechs, a tecnologia transforma as contratações e gera as chamadas HR techs.

Os algoritmos que analisam as candidaturas e selecionam os perfis que mais se aproximam das vagas geralmente baseiam seu aprendizado pela avaliação de uma série de currículos anteriores, e priorizam as qualificações apresentadas naqueles que resultaram em contratações efetivas para a empresa.

Foi o caso da Amazon, que entre 2014 e 2017, treinou um algoritmo com dados de contratação dos 10 anos que antecederam os testes. Porém, à medida em que o algoritmo percebia que as maiores contratações tinham sido de candidatos homens, passou a diminuir a classificação de tudo que se relacionasse a termos femininos. Quando aparecia a palavra “mulher” em campos como “gênero”, nomes de empresas, clubes e associações ou práticas esportivas, o sistema da Amazon rebaixava a candidata e seguia com os perfis que não continham esses termos. Os desenvolvedores tentaram corrigir o problema, mas o resultado não foi satisfatório e o algoritmo foi cancelado.

Desde então, o exemplo da Amazon é um dos mais emblemáticos para mostrar que empresas devem ter atenção redobrada ao colocar máquinas para fazer seleções de pessoas qualificadas e adequadas a sua cultura e ao ambiente de trabalho.

Preconceito está em humanos e máquinas

As pessoas normalmente pensam que as tarefas executadas pelas máquinas são mais bem feitas do que por humanos. É um fenômeno bem estudado, chamado “viés de automação”. É normal pensarmos que profissionais de recursos humanos e outros selecionadores de currículos têm preconceitos enraizados que podem ser de várias ordens, de rejeição a tatuagens até atitudes de racismo, machismo e homofobia. Para combater esses erros e tornar a seleção mais imparcial, muitas empresas passaram a adotar ferramentas baseadas em inteligência artificial.

“A premissa básica em que esta tecnologia é baseada é a de que os seres humanos são falhos e os computadores podem fazer as coisas melhor”, diz Raymond Berti, um advogado trabalhista da advocacia Akerman LLP, em entrevista ao site Quartz. “Obviamente, as coisas não são tão simples assim. Não estamos em um ponto em que os empregadores possam se sentar e deixar os computadores fazerem todo o trabalho.”

Empresas respondem por seus algoritmos

As regulamentações empresariais dos Estados Unidos determinam que as empresas são inteiramente responsáveis ​​por suas decisões de contratação, incluindo as tomadas por seus algoritmos. A lei aconselha que os dados utilizados para chegar a uma decisão de contratação sejam mantidos em caso de uma reivindicação de parcialidade pelos candidatos às vagas, o que significa que uma empresa pode ser responsabilizada mesmo que não saiba por que um algoritmo escolheu um candidato em detrimento de outro.

Para evitar lidar com dados de currículos tendenciosos, novas iniciativas estão usando a psicologia organizacional, campo que informa as melhores práticas para os humanos seguirem quando procuram candidatos a emprego.

Como solução, startups americanas como a Plum e a Pymetrics adicionam uma etapa ao processo de inscrição que inclui pesquisas, tarefas digitais e jogos destinados a criar um perfil da personalidade do candidato, que acrescenta a seus perfis qualificações como o quanto eles podem ser orientados a detalhes ou avessos a riscos. Em seguida, um algoritmo analisa os resultados da pessoa e a saída do algoritmo é comparada a funcionários de alto desempenho que já trabalham para a empresa.

A Pymetrics também adota a estratégia de testar seus algoritmos antes de colocá-los em uso. Frida Polli, CEO da startup, disse a Quartz que a empresa mantém um conjunto de dados de 50 mil candidatos anteriores, incluindo cor da pele e gênero, e executa vários testes com os algoritmos. Dessa forma, se o sistema favorece um determinado grupo por alguma dessas características, a empresa pode descobrir o que está errado e corrigir o algoritmo.

Pelo jeito, apenas inteligência artificial não basta para assegurar um ambiente equilibrado nas empresas, já que, por enquanto, as máquinas que tentam acertar no futuro ainda estão aprendendo com os erros do passado.