IA para decidir quem é contratado: justiça dos EUA avalia se algoritmos de contratação da Microsoft e Salesforce são injustos e violam leis de proteção ao consumidor

Além de um suposto "sistema de crédito", grupos minoritários seriam tratados com marginalização

IA contratando
Sem comentários Facebook Twitter Flipboard E-mail
vika-rosa

Vika Rosa

Redatora
vika-rosa

Vika Rosa

Redatora

Jornalista com mais de 5 anos de experiência, cobrindo os mais diversos temas. Apaixonada por ciência, tecnologia e games.


197 publicaciones de Vika Rosa

Uma ação judicial coletiva (disponível em pdf) protocolada na Califórnia pode mudar drasticamente a forma como as empresas utilizam inteligência artificial para selecionar candidatos. A Eightfold AI, uma plataforma utilizada por gigantes como Microsoft, Salesforce, PayPal e Bayer, está sendo acusada de gerar relatórios detalhados sobre candidatos sem o consentimento deles — uma prática que, segundo os autores do processo, viola leis federais de proteção ao consumidor.

O ponto central da disputa é se os algoritmos de contratação devem ser regulados da mesma forma que as agências de pontuação de crédito (como o Serasa ou o SPC, no Brasil). O processo alega que a Eightfold viola o Fair Credit Reporting Act (FCRA), uma lei de 1970 que exige transparência e o direito de correção em relatórios que decidem o futuro financeiro ou profissional de um indivíduo.

O "Score de Crédito" dos trabalhadores

A Eightfold utiliza uma base de dados massiva, com mais de um bilhão de perfis profissionais e um catálogo vasto de habilidades, para ranquear candidatos de forma mais eficiente que recrutadores humanos. No entanto, o processo revela que o sistema faz muito mais do que apenas ler currículos:

  • O sistema cria "perfis" que descrevem traços de personalidade, como introversão ou capacidade de trabalho em equipe.
  • A IA tenta prever quais cargos o candidato ocupará no futuro e avalia seu histórico educacional de forma automatizada.
  • O resultado final é destilado em um "score" que decide se o candidato será ou não avaliado por um humano.

Os críticos afirmam que esses sistemas atuam como "porteiros algorítmicos", deixando os candidatos no escuro sobre o porquê de terem sido rejeitados ou quais dados foram usados para selar seu destino.

Implicações para o mercado

Em resposta, a Eightfold nega as acusações, afirmando que seu sistema utiliza apenas informações fornecidas diretamente pelos candidatos ou pelos empregadores, sem realizar capturas em redes sociais. A empresa reforça seu compromisso com a transparência e a conformidade com as leis de proteção de dados.

Contudo, especialistas jurídicos alertam que este caso é apenas o começo de um movimento de prestação de contas.

Outro processo semelhante contra a plataforma Workday já avançou na justiça, investigando se os modelos algorítmicos podem codificar preconceitos contra candidatos idosos, negros ou com deficiência.

O que pode mudar?

Se a justiça decidir que os algoritmos de IA são equivalentes a sistemas de relatórios de consumo, as consequências serão profundas:

  1. Empresas de tecnologia seriam obrigadas a abrir seus processos para escrutínio público.
  2. Candidatos teriam o direito de saber sua classificação e contestar informações imprecisas, assim como fazem hoje com dívidas bancárias.
  3. Os métodos de ranqueamento teriam que ser divulgados aos aplicantes.

Como afirmou David Seligman, um dos advogados do caso: "Não existe isenção de IA para as nossas leis". O desfecho desta batalha pode definir se o futuro do trabalho será decidido por sistemas digitais ou por sistemas com supervisão humana e legal.

Inicio