A preocupação social com o rápido avanço da inteligência artificial (IA) deixou de ser um debate puramente técnico e se tornou uma preocupação global. Como prova disso, mais de 800 personalidades dos campos científico, político, religioso e cultural — entre elas os pioneiros da IA Geoffrey Hinton e Yoshua Bengio, o cofundador da Apple Steve Wozniak, o ex-estrategista de Donald Trump Steve Bannon, e Príncipe Harry e Meghan Markle — assinaram uma carta aberta pedindo a interrupção do desenvolvimento da "superinteligência", uma forma de IA atualmente hipotética capaz de superar os seres humanos em todas as tarefas cognitivas.
O documento reúne vozes de quase todos os cantos do espectro ideológico: de conservadores como Steve Bannon (ex-chefe de gabinete de Donald Trump) e Glenn Beck a progressistas como Susan Rice (ex-embaixadora dos EUA na ONU durante o governo Obama), e figuras religiosas como o monge e conselheiro do Papa em questões de IA, Paolo Benanti. A eles se juntaram também cinco ganhadores do Prêmio Nobel, o empresário Richard Branson e o ator Stephen Fry.
A iniciativa, promovida pelo Future of Life Institute (FLI), não pede uma pausa simbólica: exige uma proibição total do desenvolvimento de sistemas superinteligentes, que só avançarão quando houver um "amplo consenso científico" sobre sua segurança e apoio público verificável.
O abismo entre a sociedade e as grandes empresas de tecnologia
A carta coincide com a publicação de um relatório do Future of Life Institute, que demonstra um descontentamento generalizado entre os americanos com a velocidade do desenvolvimento da IA. O relatório conclui que existe uma "clara desconexão entre a missão declarada das grandes empresas de IA e os desejos do público".
O físico Anthony Aguirre, diretor executivo do FLI, afirmou em declarações à NBC que o problema não é apenas técnico, mas também democrático:
"Este caminho foi escolhido pelas empresas e pelo sistema econômico que as impulsiona, mas quase ninguém perguntou ao resto da humanidade se é isso que queremos".
Assim, enquanto corporações como OpenAI, Google, Meta e xAI competem para alcançar a chamada IAG (ou "inteligência artificial geral"), os cidadãos pedem cautela, transparência e controle. De acordo com a pesquisa, realizada entre 29 de setembro e 5 de outubro de 2025:
- 64% dos adultos acreditam que a superinteligência não deve ser desenvolvida até que seja segura e controlável;
- 69% dos americanos acreditam que o governo não está fazendo o suficiente para regulamentar a IA;
- Mais da metade desconfia da capacidade das empresas de tecnologia de desenvolverem tecnologia de forma responsável;
- 73% exigem regulamentação rigorosa;
- Apenas 5% apoiam o status quo de desenvolvimento acelerado e não supervisionado.
Empresas aceleram, especialistas pedem para parar
Enquanto isso, a corrida tecnológica não mostra sinais de parar. A Meta anunciou a criação de um grupo dedicado à construção de uma "superinteligência" sob o nome Meta Superintelligence Labs, e a OpenAI continua a desenvolver modelos cada vez mais poderosos. Seu diretor executivo, Sam Altman, afirmou recentemente que a empresa espera alcançar a superinteligência antes de 2030 e que,
"os benefícios potenciais compensam os riscos".
Até mesmo figuras que antes alertavam para os perigos, como Elon Musk, agora lideram empresas dedicadas a essa área. Musk reconheceu este ano que há "apenas 20% de chance de aniquilação" caso a IA supere os humanos, enquanto sua empresa, a xAI, continua avançando nessa direção.
Enquanto isso, o já mencionado Geoffrey Hinton (vencedor do Prêmio Turing em 2019, juntamente com Bengio e LeCun) alerta que "em poucos anos, sistemas de IA de ponta poderão superar a maioria das pessoas na maioria das tarefas cognitivas", exigindo o desenvolvimento de sistemas "incapazes de prejudicar os humanos, seja por desalinhamento ou uso malicioso".
Outro cientista veterano que apoia essa visão é Stuart Russell, professor da Universidade da Califórnia. Segundo ele, a proposta
"não pede uma proibição permanente, mas sim medidas de segurança adequadas para uma tecnologia que, segundo seus próprios criadores, poderia causar a extinção da humanidade".
Ponto de virada histórico
Para muitos analistas, esta carta pode se tornar o momento decisivo do debate global sobre a governança da inteligência artificial. Ela não apenas uniu setores tradicionalmente opostos, como também reflete uma preocupação coletiva sobre a direção que uma tecnologia que promete tanto quanto ameaça está tomando.
Nas palavras de Yoshua Bengio, "devemos garantir que o público tenha uma voz muito mais forte nas decisões sobre a governança da inteligência artificial".
Enquanto isso, permanece a questão levantada por Anthony Aguirre, comunicador científico e cofundador do FLI:
"Queremos realmente sistemas que substituam os humanos? Ou preferimos decidir, enquanto ainda podemos, os limites da inteligência que estamos criando?"
Imagem | Marcos Merino via IA
Ver 0 Comentários