Um grupo de pesquisadores da OpenAI afirmou ter “encontrado soluções para 10 problemas de Erdös que antes não haviam sido resolvidos, e feito progressos em outros 11”. A afirmação parecia indicar que o GPT-5 havia dado um salto qualitativo importante no campo da matemática, mas a realidade era bem diferente. Na verdade, tudo acabou sendo um exagero que pode prejudicar a reputação da OpenAI no futuro.
O que aconteceu
A declaração dos engenheiros da OpenAI era promissora, mas exagerada. À mensagem original de Mark Selke, um deles, somaram-se as de outros pesquisadores como Boris Power — que pediu desculpas depois de perceber que haviam cometido um erro — e Sebastian Bubeck — que também acabou modificando o tuíte e reconheceu o equívoco. O tuíte original parecia deixar claro que o GPT-5 havia conseguido resolver vários dos famosos problemas matemáticos de Erdös. Na realidade, ele não os havia resolvido.
O matemático Thomas Bloom, responsável justamente por administrar o site onde todos esses problemas em aberto são catalogados, esclareceu rapidamente a situação. Como explicou no X/Twitter, as afirmações da OpenAI eram “uma interpretação dramaticamente equivocada”. Quando ele fala de problemas “abertos” (“open”) no site, o que quer dizer é que ele não conhece a solução — não que o problema ainda não tenha sido resolvido.
O que o GPT-5 fez, na prática, foi apenas encontrar pesquisas e estudos recentes que Bloom não havia encontrado. Aqui vale destacar que a IA de fato tem conseguido avanços matemáticos notáveis recentemente: a Meta AI, por exemplo, conseguiu generalizar a função de Lyapunov.
Demis Hassabis, CEO da DeepMind, afirmou no X que o episódio foi “vergonhoso”, enquanto Yann LeCun, um dos principais responsáveis pela IA na Meta, destacou como a OpenAI acabou acreditando em sua própria propaganda, escrevendo a frase “Hoisted by their own GPTards”, que faz um trocadilho com “GPT” e “tards” (sufixo derivado de “retards”, “retardados”), em referência aos que acreditam cegamente nas promessas que a OpenAI costuma vender.
Embora os pesquisadores e engenheiros da OpenAI tenham admitido o erro, o que vemos aqui é um padrão perigoso, em que até os próprios funcionários da empresa — ou os entusiastas que a acompanham — podem acabar sendo vítimas dessas expectativas. É bem provável que, internamente, a pressão por alcançar grandes avanços com seus modelos seja enorme, mas isso pode levar a descuidos e exageros como este, que podem sair caros à reputação da empresa.
O GPT-5 não se saiu tão mal assim
Embora o papel do GPT-5 nesse processo tenha sido exagerado, é preciso reconhecer que o modelo demonstrou sua capacidade de se tornar um assistente muito valioso para pesquisadores. Esse modelo de IA pode percorrer a internet e as bibliotecas de estudos científicos de forma extremamente eficiente, podendo “encontrar soluções” já publicadas que os acadêmicos ainda não haviam localizado ao tentar resolver problemas relacionados.
Para o matemático Terence Tao, esse é justamente um aspecto muito interessante desses modelos de IA: talvez eles não consigam resolver os problemas matemáticos mais complexos, mas podem acelerar tarefas tediosas, como a busca por literatura acadêmica que ajude a solucioná-los. Para esse especialista, a IA pode ajudar a “industrializar” a matemática e atuar como um catalisador para as hipóteses e teorias dos matemáticos.
A OpenAI é uma máquina de criar expectativas, e seu CEO, Sam Altman, não hesita em fazer promessas vagas e impossíveis de verificar para atrair mais interesse por seus modelos de inteligência artificial generativa. Há um ano, ele prometeu que a AGI chegaria “em alguns milhares de dias” — algo que soa como uma daquelas “promessas de Musk”.
Imagem | Vitaly Gariev
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários