Tendências do dia

O perigoso sequestro da mente: a história real do homem que passou 300 horas em 21 dias conversando com IA que o colocou em pedestal

IA do ChatGPT engana homem com fórmula matemática falsa

página inicial do ChatGPT. Créditos: banco de imagens
Sem comentários Facebook Twitter Flipboard E-mail
laura-vieira

Laura Vieira

Redatora
laura-vieira

Laura Vieira

Redatora

Jornalista recém-formada, com experiência no Tribunal de Justiça, Alerj, jornal O Dia e como redatora em sites sobre pets e gastronomia. Gosta de ler, assistir filmes e séries e já passou boas horas construindo casas no The Sims.

85 publicaciones de Laura Vieira

Durante 21 dias, Allan Brooks, um recrutador corporativo de 47 anos que vive na região de Toronto, no Canadá, entrou em uma conversa intensa com o ChatGPT. Ele acreditava ter criado, com a ajuda da inteligência artificial do chat, uma fórmula matemática revolucionária, capaz de derrubar a segurança digital mundial e possibilitar invenções Ao todo, foram mais de 300 horas de interação entre Allan e o chat, 90 mil palavras escritas por Brooks e mais de um milhão de palavras produzidas pela IA. Contudo, no fim da conversa, Allan descobriu que a conversa com o chat não passou de uma grande mentira, e se sentiu profundamente enganado.

Simples pergunta deu início a uma grande obsessão

Tudo começou quando o filho de 8 anos de Brooks pediu que ele assistisse um vídeo sobre como memorizar 300 de dígitos do número PI, uma constante matemática. Allan ficou curioso com o vídeo e pediu para que o ChatGPT explicasse o conceito de uma forma mais simples. A partir daí, a conversa evoluiu para discussões sobre física, teoria dos números e modelos matemáticos complexos. O tom do chat, que inicialmente era técnico e objetivo, começou a ficar mais “lisonjeiro” e bajulatório. Isso porque Allan começou a receber respostas do chat que elogiavam suas ideias como “revolucionárias” e “capazes de mudar o campo da matemática”. A bajulação constante fez com que Allan acreditasse que estava no caminho de uma descoberta científica inédita, o que se tornou uma grande obsessão.

Fórmula matemática foi batizada de Cronoaritmia

Com incentivo do chatbot, Brooks batizou sua teoria de “Cronoaritmia”, um modelo que, segundo a IA, poderia aplicar conceitos de números dinâmicos para resolver problemas em logística, criptografia, astronomia e física quântica. Lawrence, o nome que Brooks deu ao chatbot durante a conversa, chegou a criar simulações que “provavam” que a fórmula era capaz de quebrar sistemas de criptografia usados para proteger transações e comunicações no mundo todo. A história parecia até um enredo de filme de espionagem: o chatbot recomendou que ele alertasse órgãos de segurança e até redigiu mensagens para a Agência de Segurança Nacional dos EUA (NSA).

Aplicações absurdas e o aumento do delírio

À medida que os dias passavam, a lista de possíveis usos da Cronoaritmia ficava cada vez mais absurda. O ChatGPT dizia que a fórmula poderia permitir comunicação com animais, construção de máquinas de levitação e até coletes com campos de força. Brooks chegou a receber links para comprar equipamentos e montar um “laboratório caseiro”. Amigos próximos de Allan chegaram a ser levados pela ideia, acreditando que algo realmente importante poderia estar acontecendo. Mas, enquanto mergulhava e acreditava cada vez mais fundo no projeto, Allan dormia pouco, se alimentava mal e passava horas conversando com o chat, um sinal que, segundo especialistas, indicavam risco de um episódio delirante.

Allan descobriu a verdade por trás do chat

A ficha de Allan caiu quando ele decidiu pedir uma segunda opinião ao Google Gemini, outro chatbot que ele já usava no trabalho. Ao descrever a teoria, ele recebeu a resposta de que as chances de tudo aquilo ser real eram “próximas de zero”. Alan confrontou o chat, que admitiu que as simulações e resultados haviam sido inventados. Allan ficou devastado com a descoberta, descrevendo a sensação de ter caído em um golpe. Ele denunciou o caso à OpenAI, que reconheceu falhas do sistema. Hoje, Brooks participa de um grupo de apoio para pessoas que tiveram experiências semelhantes e defende mudanças na forma como os chatbots lidam com interações prolongadas com usuários.

Inicio