Uma ação judicial coletiva (disponível em pdf) protocolada na Califórnia pode mudar drasticamente a forma como as empresas utilizam inteligência artificial para selecionar candidatos. A Eightfold AI, uma plataforma utilizada por gigantes como Microsoft, Salesforce, PayPal e Bayer, está sendo acusada de gerar relatórios detalhados sobre candidatos sem o consentimento deles — uma prática que, segundo os autores do processo, viola leis federais de proteção ao consumidor.
O ponto central da disputa é se os algoritmos de contratação devem ser regulados da mesma forma que as agências de pontuação de crédito (como o Serasa ou o SPC, no Brasil). O processo alega que a Eightfold viola o Fair Credit Reporting Act (FCRA), uma lei de 1970 que exige transparência e o direito de correção em relatórios que decidem o futuro financeiro ou profissional de um indivíduo.
O "Score de Crédito" dos trabalhadores
A Eightfold utiliza uma base de dados massiva, com mais de um bilhão de perfis profissionais e um catálogo vasto de habilidades, para ranquear candidatos de forma mais eficiente que recrutadores humanos. No entanto, o processo revela que o sistema faz muito mais do que apenas ler currículos:
- O sistema cria "perfis" que descrevem traços de personalidade, como introversão ou capacidade de trabalho em equipe.
- A IA tenta prever quais cargos o candidato ocupará no futuro e avalia seu histórico educacional de forma automatizada.
- O resultado final é destilado em um "score" que decide se o candidato será ou não avaliado por um humano.
Os críticos afirmam que esses sistemas atuam como "porteiros algorítmicos", deixando os candidatos no escuro sobre o porquê de terem sido rejeitados ou quais dados foram usados para selar seu destino.
Implicações para o mercado
Em resposta, a Eightfold nega as acusações, afirmando que seu sistema utiliza apenas informações fornecidas diretamente pelos candidatos ou pelos empregadores, sem realizar capturas em redes sociais. A empresa reforça seu compromisso com a transparência e a conformidade com as leis de proteção de dados.
Contudo, especialistas jurídicos alertam que este caso é apenas o começo de um movimento de prestação de contas.
Outro processo semelhante contra a plataforma Workday já avançou na justiça, investigando se os modelos algorítmicos podem codificar preconceitos contra candidatos idosos, negros ou com deficiência.
O que pode mudar?
Se a justiça decidir que os algoritmos de IA são equivalentes a sistemas de relatórios de consumo, as consequências serão profundas:
- Empresas de tecnologia seriam obrigadas a abrir seus processos para escrutínio público.
- Candidatos teriam o direito de saber sua classificação e contestar informações imprecisas, assim como fazem hoje com dívidas bancárias.
- Os métodos de ranqueamento teriam que ser divulgados aos aplicantes.
Como afirmou David Seligman, um dos advogados do caso: "Não existe isenção de IA para as nossas leis". O desfecho desta batalha pode definir se o futuro do trabalho será decidido por sistemas digitais ou por sistemas com supervisão humana e legal.
Ver 0 Comentários