Nos últimos dias, esse se tornou o assunto mais quente da indústria tech. Com status de segunda maior aposta de Mark Zuckerberg — atrás apenas da compra do WhatsApp, a Meta investiu 14 bilhões de dólares para adquirir 49% da Scale AI. Mas uma investigação recente sobre o funcionamento da empresa de anotação de dados acendeu o alerta geral.
A estratégia por trás da movimentação da Meta gira em torno de três pilares principais, todos voltados a enfrentar a OpenAI e seu ChatGPT: a contratação do fundador da Scale AI, Alexandr Wang, para liderar a nova divisão de superinteligência da Meta; o acesso aos dados da Scale AI para treinar os modelos Llama; e informações cruciais sobre a construção dos data centers da companhia.
Só que, apesar das intenções grandiosas, uma reportagem da revista Inc. sugere que, no fundo, o que a Meta comprou foi um verdadeiro circo.
A nova aquisição de Mark Zuckerberg está no olho do furacão
Com base em 83 páginas de documentos vazados sobre os bastidores da Scale AI, uma nova investigação revela que o trabalho de coleta de dados da empresa está longe do ideal.
Segundo a reportagem, a metodologia adotada pela Scale AI está muito distante do que se entende por uma inteligência artificial responsável. E pior: muitos dos erros que já vimos no Gemini, do Google, estariam diretamente ligados a esse modo de operação.
Mas para entender o tamanho da treta, é preciso saber o que, afinal, a Scale AI faz. A proposta da empresa é alimentar um motor de inteligência artificial generativa que outras ferramentas — como ChatGPT, Gemini e Llama — possam utilizar. A engrenagem por trás disso?
Um verdadeiro exército de pessoas responsáveis por rotular dados, avaliar respostas de diferentes modelos e refinar esses resultados com base em feedbacks humanos. Na prática, é como montar uma biblioteca de respostas “otimizadas” graças ao trabalho humano.
Para alcançar esse nível de escala, a Scale AI se apoiava em uma plataforma chamada Remotasks, um site onde qualquer pessoa pode se cadastrar e realizar pequenas tarefas remuneradas. Essas microatividades envolvem revisão de imagens, textos ou códigos. E sim, estamos falando de uma força de trabalho com mais de 240 mil taskers em mais de 90 países.
A promessa era eficiência e escala
Mas o que está vindo à tona agora pode revelar um processo questionável, que levanta dúvidas éticas e técnicas sobre o tipo de IA que está sendo construída.
O grande problema é que, sendo praticamente impossível revisar o trabalho de tanta gente, muitas das tarefas acabavam sendo feitas com a ajuda do próprio ChatGPT, de forma automática e sem controle de qualidade.
Havia registros de jornadas de até 18 horas seguidas, sugerindo o uso ilegal de múltiplas contas ou mesmo trabalho forçado. E quando esses usuários eram identificados e banidos, os documentos vazados mostram que muitos simplesmente compravam contas roubadas e usavam VPNs para burlar os bloqueios e continuar trabalhando como se nada tivesse acontecido.
Em resposta à investigação, a Scale AI afirmou que o conteúdo está “repleto de imprecisões” e que conta com “robustos mecanismos de proteção” para eliminar esse tipo de spam antes que os dados cheguem aos clientes. No entanto, a empresa ainda não apresentou nenhuma auditoria externa que comprove essa versão.
E o fato do Google ter encerrado um contrato anual de 200 milhões de dólares com a Scale AI logo após a entrada da Meta no negócio só jogou mais lenha na fogueira.
Ver 0 Comentários