Steve Wozniak e os dois grandes pioneiros da IA ​​coletam 800 assinaturas para pedir uma "pausa" no desenvolvimento da superinteligência

Iniciativa promovida pelo Instituto Futuro da Vida reflete aliança incomum entre cientistas, políticos e celebridades de todo o espectro ideológico

Imagem | Marcos Merino via IA
Sem comentários Facebook Twitter Flipboard E-mail
pedro-mota

PH Mota

Redator
pedro-mota

PH Mota

Redator

Jornalista há 15 anos, teve uma infância analógica cada vez mais conquistada pelos charmes das novas tecnologias. Do videocassete ao streaming, do Windows 3.1 aos celulares cada vez menores.

1040 publicaciones de PH Mota

A preocupação social com o rápido avanço da inteligência artificial (IA) deixou de ser um debate puramente técnico e se tornou uma preocupação global. Como prova disso, mais de 800 personalidades dos campos científico, político, religioso e cultural — entre elas os pioneiros da IA ​​Geoffrey Hinton e Yoshua Bengio, o cofundador da Apple Steve Wozniak, o ex-estrategista de Donald Trump Steve Bannon, e Príncipe Harry e Meghan Markle — assinaram uma carta aberta pedindo a interrupção do desenvolvimento da "superinteligência", uma forma de IA atualmente hipotética capaz de superar os seres humanos em todas as tarefas cognitivas.

O documento reúne vozes de quase todos os cantos do espectro ideológico: de conservadores como Steve Bannon (ex-chefe de gabinete de Donald Trump) e Glenn Beck a progressistas como Susan Rice (ex-embaixadora dos EUA na ONU durante o governo Obama), e figuras religiosas como o monge e conselheiro do Papa em questões de IA, Paolo Benanti. A eles se juntaram também cinco ganhadores do Prêmio Nobel, o empresário Richard Branson e o ator Stephen Fry.

A iniciativa, promovida pelo Future of Life Institute (FLI), não pede uma pausa simbólica: exige uma proibição total do desenvolvimento de sistemas superinteligentes, que só avançarão quando houver um "amplo consenso científico" sobre sua segurança e apoio público verificável.

O abismo entre a sociedade e as grandes empresas de tecnologia

A carta coincide com a publicação de um relatório do Future of Life Institute, que demonstra um descontentamento generalizado entre os americanos com a velocidade do desenvolvimento da IA. O relatório conclui que existe uma "clara desconexão entre a missão declarada das grandes empresas de IA e os desejos do público".

O físico Anthony Aguirre, diretor executivo do FLI, afirmou em declarações à NBC que o problema não é apenas técnico, mas também democrático:

"Este caminho foi escolhido pelas empresas e pelo sistema econômico que as impulsiona, mas quase ninguém perguntou ao resto da humanidade se é isso que queremos".

Assim, enquanto corporações como OpenAI, Google, Meta e xAI competem para alcançar a chamada IAG (ou "inteligência artificial geral"), os cidadãos pedem cautela, transparência e controle. De acordo com a pesquisa, realizada entre 29 de setembro e 5 de outubro de 2025:

  • 64% dos adultos acreditam que a superinteligência não deve ser desenvolvida até que seja segura e controlável;
  • 69% dos americanos acreditam que o governo não está fazendo o suficiente para regulamentar a IA;
  • Mais da metade desconfia da capacidade das empresas de tecnologia de desenvolverem tecnologia de forma responsável;
  • 73% exigem regulamentação rigorosa;
  • Apenas 5% apoiam o status quo de desenvolvimento acelerado e não supervisionado.

Empresas aceleram, especialistas pedem para parar

Enquanto isso, a corrida tecnológica não mostra sinais de parar. A Meta anunciou a criação de um grupo dedicado à construção de uma "superinteligência" sob o nome Meta Superintelligence Labs, e a OpenAI continua a desenvolver modelos cada vez mais poderosos. Seu diretor executivo, Sam Altman, afirmou recentemente que a empresa espera alcançar a superinteligência antes de 2030 e que,

"os benefícios potenciais compensam os riscos".

Até mesmo figuras que antes alertavam para os perigos, como Elon Musk, agora lideram empresas dedicadas a essa área. Musk reconheceu este ano que há "apenas 20% de chance de aniquilação" caso a IA supere os humanos, enquanto sua empresa, a xAI, continua avançando nessa direção.

Enquanto isso, o já mencionado Geoffrey Hinton (vencedor do Prêmio Turing em 2019, juntamente com Bengio e LeCun) alerta que "em poucos anos, sistemas de IA de ponta poderão superar a maioria das pessoas na maioria das tarefas cognitivas", exigindo o desenvolvimento de sistemas "incapazes de prejudicar os humanos, seja por desalinhamento ou uso malicioso".

Outro cientista veterano que apoia essa visão é Stuart Russell, professor da Universidade da Califórnia. Segundo ele, a proposta

"não pede uma proibição permanente, mas sim medidas de segurança adequadas para uma tecnologia que, segundo seus próprios criadores, poderia causar a extinção da humanidade".

Ponto de virada histórico

Para muitos analistas, esta carta pode se tornar o momento decisivo do debate global sobre a governança da inteligência artificial. Ela não apenas uniu setores tradicionalmente opostos, como também reflete uma preocupação coletiva sobre a direção que uma tecnologia que promete tanto quanto ameaça está tomando.

Nas palavras de Yoshua Bengio, "devemos garantir que o público tenha uma voz muito mais forte nas decisões sobre a governança da inteligência artificial".

Enquanto isso, permanece a questão levantada por Anthony Aguirre, comunicador científico e cofundador do FLI:

"Queremos realmente sistemas que substituam os humanos? Ou preferimos decidir, enquanto ainda podemos, os limites da inteligência que estamos criando?"

Imagem | Marcos Merino via IA

Inicio