Emily Bender, a acadêmica de IA que se tornou cética de IA: “Os chatbots não passam de máquinas de plagiar”

Especialista alerta que os modelos de IA não vão cumprir o que prometiam — mas também não vão nos aniquilar

Professora da Universidade de Washington acredita que IAs ainda não são nada que se assemelhe a uma entidade inteligente / Imagem: Wikimedia | Village Global
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

870 publicaciones de Victor Bianchin

Em 2021, o mundo ainda não fazia ideia do que estava por vir, mas Emily Bender — linguista e professora da Universidade de Washington — tinha isso muito claro. Foi então que ela foi coautora de um estudo famoso no qual classificava os modelos de IA existentes como “papagaios estocásticos”. Essa expressão se tornou, desde então, uma das melhores formas de definir o funcionamento básico do ChatGPT. E quatro anos depois, essa especialista reafirma sua posição: é uma cética com argumentos.

Papagaios estocásticos

A ideia central de sua analogia era comparar os modelos da época (entre eles o GPT-3, precursor do utilizado no ChatGPT) a papagaios estocásticos. O “papagaios” é autoexplicativo, já que os modelos basicamente repetem o que lhes é ensinado durante o treinamento. O “estocásticos”, um termo não tão conhecido, refere-se ao fato de que os LLMs não repetem de forma determinista ou fixa, mas sim predizem probabilisticamente qual é a próxima palavra mais provável em uma sequência com base no contexto.

Sam Altman respondeu à provocação um ano depois, quando a expressão já era conhecida. Ele fez isso em 4 de dezembro de 2022, quatro dias após o lançamento do ChatGPT. Com isso, quis mostrar que, segundo ele, no fim das contas, os seres humanos também são papagaios estocásticos. Em certo sentido, somos: aprendemos padrões de linguagem, repetimos frases que ouvimos e também prevemos o que vem a seguir em uma conversa. No entanto, há diferenças críticas entre nós e os modelos de IA:

  • Entendemos o que dizemos, enquanto os LLMs não.
  • Temos consciência e intenção ao falar, não apenas geramos sequências prováveis.
  • Temos raciocínio abstrato e somos capazes de nos adaptar, argumentar, generalizar e corrigir nossos erros de forma flexível: nosso pensamento não é puramente estatístico.

Cética assumida

Emily Bender não mudou de opinião ao longo desses anos. Na verdade, acaba de publicar seu livro The AI Con (algo como O embuste da IA), no qual desenvolve os argumentos que fundamentam suas reservas e seu ceticismo em relação à inteligência artificial. Em uma entrevista recente ao Financial Times, Bender destacou que os chatbots de IA não passam de “máquinas de plagiar” e que os grandes modelos de linguagem (LLMs) nos quais se baseiam “já nasceram uma porcaria”.

Essa especialista acredita que as empresas de IA generativa nos venderam uma mentira. Segundo ela, seus modelos não vão cumprir as promessas feitas — mas também não vão exterminar a raça humana, como alguns chegaram a sugerir. Apesar de toda a expectativa gerada, em sua visão, os chatbots são ruins na maioria das tarefas. Mesmo os melhores modelos atuais, acredita ela, ainda não possuem nada que se pareça com inteligência.

Os novos modos de “raciocínio” apresentados por modelos como o1, o3 e DeepSeek R1, segundo ela, são outra mentira, e a afirmação de que essas IAs entendem o mundo não faz sentido. Estamos “imaginando uma mente por trás dos textos [gerados]”, explica ela, “mas todo esse entendimento vem do nosso lado”, não da IA.

Bender, que atualmente tem 51 anos, iniciou sua carreira acadêmica em Stanford e Berkeley e acabou se tornando professora na Universidade de Washington, onde se especializou em como os computadores modelam a linguagem humana. Em sua opinião, o próprio nome “inteligência artificial” é exagerado — um debate antigo — e deveria ser chamado simplesmente de automatização.

Em seu livro The AI Con, ela e seu coautor, Alex Hanna, alertam para o perigo dos modelos atuais de IA. Especialmente porque, argumentam, esses modelos estão sob o controle de grandes empresas com interesses específicos. “Graças às somas gigantescas investidas, uma minúscula camarilha de homens tem o poder de influenciar o que acontece com vastos setores da sociedade”, explica.

E diante dos discursos e promessas de Altman ou Amodei — que garantem que em breve alcançaremos a AGI ou que a IA vai substituir milhões de trabalhadores —, a visão de Bender é muito mais cética. Para ela, não passa de um “belo invólucro para planilhas de Excel”: não há mágica nem mente emergente.

Sua visão cética vai na contramão da de figuras como Sam Altman ou Elon Musk, que não param de prometer todo tipo de revoluções. “Fazer com que todo mundo acredite que isso [a IA] é uma entidade pensante é algo que os favorece — e muito”, explica. “Em vez de levar as pessoas a pensarem que isso não passa de uma bola 8 mágica com pretensões”, diz ela, fazendo referência ao brinquedo que você sacode após fazer uma pergunta e que responde com um “sim”, “não”, “depende” ou outras opções semelhantes.

Imagem | Wikimedia | Village Global

Este texto foi traduzido/adaptado do site Xataka Espanha.

Inicio