"A indústria está fingindo que é incrível, mas não é": cofundador da OpenAI reduz drasticamente o entusiasmo com IA e agentes

Uma das pessoas mais envolvidas no desenvolvimento da IA ​​em larga escala não está alinhado na visão sobre o progresso das ferramentas

Imagem | Podcast de Dwarkesh Patel
Sem comentários Facebook Twitter Flipboard E-mail
pedro-mota

PH Mota

Redator
pedro-mota

PH Mota

Redator

Jornalista há 15 anos, teve uma infância analógica cada vez mais conquistada pelos charmes das novas tecnologias. Do videocassete ao streaming, do Windows 3.1 aos celulares cada vez menores.

978 publicaciones de PH Mota

Andrej Karpathy cofundou a OpenAI e foi chefe de IA na Tesla. Embora atualmente não tenha um papel ativo em nenhuma das duas empresas, ele é uma referência e, acima de tudo, um entusiasta da inteligência artificial. Isso se reflete na qualidade de seus vídeos de treinamento sobre a área ou na forma como ele compartilha seu conhecimento com o mundo usando ferramentas como minGPT ou nanoGPT. Além disso, graças ao seu código, vemos criações incríveis como um grande modelo de linguagem rodando no Windows 98.

No entanto, esse nível de envolvimento com a indústria não o impede de ser realista quanto às expectativas que tem em relação à inteligência artificial e suas ramificações. Isso foi demonstrado no podcast de Dwarkesh Patel, onde, em uma conversa de quase duas horas e meia, o especialista compartilhou diversas citações e impressões sobre o setor.

"É a década dos agentes". Karpathy não apenas acredita em agentes, como também cunhou o termo "vibe coding" para se referir à programação de IA. Nesse sentido, ele afirma usar Claude e Codex com frequência no dia a dia. Ele afirma que esses primeiros agentes "são impressionantes", mas ainda há "muito trabalho a ser feito" e acredita que esta é a década dos agentes, e não o ano dos agentes, como se previa para 2025.

Nesse sentido, e ele comenta isso diversas vezes ao longo da entrevista, há uma superestimação no setor, no sentido de que se prevê muito sobre a rapidez com que as coisas acontecerão (como a inteligência artificial geral ou AGI estar logo ali).

"Os modelos ainda não estão prontos. Sinto que o setor está dando um salto muito grande e tentando fingir que isso é incrível, quando não é. É uma bobagem. Eles não estão levando em conta a realidade, e talvez estejam fazendo isso para atrair investimentos ou algo assim, não sei. Mas estamos em uma fase intermediária."

A origem de tanto exagero e alarde

Em um trecho da conversa, Karphaty esclarece que não é pessimista, mesmo que pareça. "Na verdade, sou otimista. Pareço pessimista porque, quando olho para minha timeline do Twitter, vejo um monte de coisas que não fazem sentido para mim."

E isso nos dá a chave para explicar tanta reação exagerada ao Twitter: dinheiro. "Na verdade, grande parte disso é só arrecadação de fundos. São simplesmente estruturas de incentivo. Grande parte disso é apenas atenção, transformar atenção em dinheiro na internet."

"Aprendizado por reforço é terrível"

O aprendizado por reforço é uma técnica na qual uma IA aprende por tentativa e erro: ela executa ações, recebe recompensas ou punições e ajusta seu comportamento para maximizar a recompensa futura. Foi fundamental em avanços como o AlphaGo ou na otimização de grandes modelos como o Deepseek, mas Karpathy acredita que sua forma de "recompensar no final" está muito distante de como as pessoas raciocinam.

Para Karpathy, é "terrível": todo o esforço do modelo é resumido em um único número final (acertou ou errou), o que gera muito ruído. Segundo ele, os humanos não aprendem assim: não fazemos cem tentativas às cegas nem atribuímos o mesmo valor a cada etapa intermediária. Ele acredita que o futuro está na "supervisão de processo", onde o modelo recebe feedback contínuo. No entanto, ele admite que ainda não sabemos como automatizar a IA para isso, sem que os sistemas encontrem exemplos adversários para enganar.

Imagem | Podcast de Dwarkesh Patel e elaboração própria

Inicio