Inteligência artificial nas contratações pode não ser tão ruim

Software tem por objetivo reduzir a discriminação e as conhecidas "indicações", para que grupos sub-representados não fiquem de fora das seleções

A inteligência artificial promete transformar as contratações de pessoal em uma utopia de imparcialidade.

Há certamente bastante espaço para melhora. As indicações de funcionários, um processo que tende a deixar grupos sub-representados de fora, ainda representam uma boa parcela das contratações das empresas. Além disso, os recrutadores e gerentes de contratação levam seus próprios preconceitos ao processo, apontaram os estudos, muitas vezes escolhendo pessoas com nomes e formação educacional que “soam corretos”.

As empresas carecem de diversidade racial e de gênero em vários setores e o número de pessoas sub-representadas diminui nos escalões mais elevados da hierarquia corporativa. Menos de 5% dos CEOs das empresas da Fortune 500 são mulheres – e há apenas três CEOs negros. A diversidade racial entre os conselhos da Fortune 500 é quase tão desanimadora quanto, já que quatro dos cinco novos nomeados para os conselhos em 2016 eram brancos.

“A identificação de candidatos de alto potencial é muito subjetiva”, disse Alan Todd, CEO da CorpU, uma plataforma tecnológica para desenvolvimento de liderança. “As pessoas escolhem quem gostam com base em preconceitos inconscientes.”

Os defensores da IA argumentam que a tecnologia é capaz de eliminar alguns desses preconceitos. Em vez de confiar a tomada de decisões sobre contratações aos sentimentos das pessoas, empresas como Entelo e Stella.ai usam o aprendizado de máquina para detectar as habilidades necessárias para determinados trabalhos. A IA, então, escolhe candidatos com essas habilidades para as vagas abertas. As empresas afirmam que não apenas encontram candidatos melhores, mas também identificam os que não haviam sido reconhecidos no processo tradicional.

O algoritmo da Stella.ai avalia candidatos apenas com base em habilidades, por exemplo, disse o fundador Rich Joffe. “O algoritmo só tem permissão para fazer combinações com base nos dados que pedimos que observe. Ele tem permissão de avaliar só as habilidades, só os setores, só os níveis das empresas.” Isso limita os preconceitos, disse.

A Entelo anunciou hoje o Unbiased Sourcing Mode, uma ferramenta que torna as contratações ainda mais anônimas. O software permite que os recrutadores ocultem nomes, fotos, universidade, períodos de inatividade e marcadores de idade do candidato e além disso substitui pronomes que especificam gênero — tudo com o objetivo de reduzir diversas formas de discriminação.

“A tomada de decisões dos humanos é muito ruim”, disse Solon Borocas, professor assistente do departamento de ciência da informação da Cornell, que estuda a equidade no aprendizado de máquina. Mas não devemos superestimar a neutralidade da tecnologia, advertiu.

A pesquisa de Borocas concluiu que o uso do aprendizado de máquina em contratações, a exemplo do reconhecimento facial, pode resultar em uma discriminação não intencional. Os algoritmos carregam preconceitos implícitos daqueles que o programaram. Ou podem mostrar tendência a favorecer certas qualidades e habilidades exibidas de forma predominante em um determinado conjunto de dados. “Se os exemplos usados para treinar o sistema não incluem determinados tipos de pessoas, o modelo desenvolvido pode ser muito ruim para avaliação dessas pessoas”, explicou Borocas.