“A IA provavelmente levará ao fim do mundo, mas, enquanto isso, existirão grandes empresas”. A frase, dita por Sam Altman poucos meses antes da fundação da OpenAI, em 2015, voltou a ganhar força nos últimos anos à medida que o ChatGPT se tornou uma das tecnologias mais influentes — e controversas — do planeta. O comentário, que mistura ironia e fatalismo, hoje é visto como um resumo brutal da relação do Vale do Silício com a inteligência artificial.
Na época, Altman ainda era presidente da Y Combinator, uma das aceleradoras mais poderosas do setor de tecnologia. A OpenAI sequer existia oficialmente. Ainda assim, ele já demonstrava plena consciência dos riscos existenciais associados à IA. A declaração original, traduzida, é ainda mais direta: “A IA provavelmente levará, muito provavelmente, ao fim do mundo, mas, enquanto isso, existirão grandes empresas”. Segundo a Fortune, embora a frase tenha sido feita parcialmente em tom de brincadeira, Altman jamais abandonou o alerta de que a tecnologia que ajudaria a criar poderia sair do controle..
Esse paradoxo — reconhecer o risco extremo e avançar mesmo assim — passou a definir a imagem pública do CEO da OpenAI. A Vox descreve a posição como algo difícil de engolir: “É estranho pensar que o que você faz pode matar todo mundo e ainda assim continuar fazendo”. Para o veículo, Altman não afirma com certeza que a IA causará o fim da humanidade, mas trata essa possibilidade como real o suficiente para justificar preocupação constante com segurança.
A postura contrasta com a de outros nomes centrais da área. Geoffrey Hinton, frequentemente chamado de “padrinho da IA”, deixou o Google após concluir que os riscos estavam se tornando perigosamente concretos. Outros pesquisadores pediram publicamente uma desaceleração no desenvolvimento, defendendo mais tempo para criar regras, sistemas de governança e salvaguardas técnicas.
Altman segue na direção oposta. Em vez de frear, ele defende que desenvolver a IA rapidamente pode torná-la mais segura — e que interromper o avanço da OpenAI apenas abriria espaço para atores menos responsáveis. Em audiência no Senado dos Estados Unidos, em maio de 2023, ele foi direto: “Se essa tecnologia der errado, pode dar muito errado”.
Em textos recentes, o executivo tenta equilibrar o discurso entre cautela e otimismo. Em uma postagem citada pela Fortune, Altman admitiu que perdeu o sono pensando se lançar o ChatGPT pode ter sido “realmente ruim”, temendo que “algo complicado dentro do sistema” tenha sido ativado sem total compreensão. Ao mesmo tempo, argumenta que uma superinteligência mal alinhada ou um regime autoritário com IA avançada representam ameaças igualmente graves.
Oito anos após aquela frase que congelou o Vale do Silício, Altman lidera a empresa de IA mais valiosa do mundo e arrecada bilhões para construir sistemas cada vez mais poderosos. A pergunta que continua sem resposta — e que assombra o setor — é simples e perturbadora: quando você acredita estar criando algo que pode destruir o mundo, em que momento parar deixa de ser uma opção e passa a ser uma obrigação?
Crédito de imagem: Xataka Brasil
Ver 0 Comentários