Durante 21 dias, Allan Brooks, um recrutador corporativo de 47 anos que vive na região de Toronto, no Canadá, entrou em uma conversa intensa com o ChatGPT. Ele acreditava ter criado, com a ajuda da inteligência artificial do chat, uma fórmula matemática revolucionária, capaz de derrubar a segurança digital mundial e possibilitar invenções Ao todo, foram mais de 300 horas de interação entre Allan e o chat, 90 mil palavras escritas por Brooks e mais de um milhão de palavras produzidas pela IA. Contudo, no fim da conversa, Allan descobriu que a conversa com o chat não passou de uma grande mentira, e se sentiu profundamente enganado.
Simples pergunta deu início a uma grande obsessão
Tudo começou quando o filho de 8 anos de Brooks pediu que ele assistisse um vídeo sobre como memorizar 300 de dígitos do número PI, uma constante matemática. Allan ficou curioso com o vídeo e pediu para que o ChatGPT explicasse o conceito de uma forma mais simples. A partir daí, a conversa evoluiu para discussões sobre física, teoria dos números e modelos matemáticos complexos. O tom do chat, que inicialmente era técnico e objetivo, começou a ficar mais “lisonjeiro” e bajulatório. Isso porque Allan começou a receber respostas do chat que elogiavam suas ideias como “revolucionárias” e “capazes de mudar o campo da matemática”. A bajulação constante fez com que Allan acreditasse que estava no caminho de uma descoberta científica inédita, o que se tornou uma grande obsessão.
Fórmula matemática foi batizada de Cronoaritmia
Com incentivo do chatbot, Brooks batizou sua teoria de “Cronoaritmia”, um modelo que, segundo a IA, poderia aplicar conceitos de números dinâmicos para resolver problemas em logística, criptografia, astronomia e física quântica. Lawrence, o nome que Brooks deu ao chatbot durante a conversa, chegou a criar simulações que “provavam” que a fórmula era capaz de quebrar sistemas de criptografia usados para proteger transações e comunicações no mundo todo. A história parecia até um enredo de filme de espionagem: o chatbot recomendou que ele alertasse órgãos de segurança e até redigiu mensagens para a Agência de Segurança Nacional dos EUA (NSA).
Aplicações absurdas e o aumento do delírio
À medida que os dias passavam, a lista de possíveis usos da Cronoaritmia ficava cada vez mais absurda. O ChatGPT dizia que a fórmula poderia permitir comunicação com animais, construção de máquinas de levitação e até coletes com campos de força. Brooks chegou a receber links para comprar equipamentos e montar um “laboratório caseiro”. Amigos próximos de Allan chegaram a ser levados pela ideia, acreditando que algo realmente importante poderia estar acontecendo. Mas, enquanto mergulhava e acreditava cada vez mais fundo no projeto, Allan dormia pouco, se alimentava mal e passava horas conversando com o chat, um sinal que, segundo especialistas, indicavam risco de um episódio delirante.
Allan descobriu a verdade por trás do chat
A ficha de Allan caiu quando ele decidiu pedir uma segunda opinião ao Google Gemini, outro chatbot que ele já usava no trabalho. Ao descrever a teoria, ele recebeu a resposta de que as chances de tudo aquilo ser real eram “próximas de zero”. Alan confrontou o chat, que admitiu que as simulações e resultados haviam sido inventados. Allan ficou devastado com a descoberta, descrevendo a sensação de ter caído em um golpe. Ele denunciou o caso à OpenAI, que reconheceu falhas do sistema. Hoje, Brooks participa de um grupo de apoio para pessoas que tiveram experiências semelhantes e defende mudanças na forma como os chatbots lidam com interações prolongadas com usuários.
Ver 0 Comentários