Enquanto OpenAI publica carta sobre o “futuro da inteligência”, Sam Altman é exposto por colegas em reportagem

Investigação jornalística voltou a apontar a forma controversa de como atua o CEO, colocando-o no centro da polêmica

Sam Altman
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

1847 publicaciones de Victor Bianchin

Na OpenAI, eles veem um futuro em que a semana de trabalho deveria ter quatro dias. Não só isso: cada cidadão deveria receber uma parte do crescimento econômico gerado pela IA. Essas são algumas das propostas que a empresa publicou ontem com o objetivo de nos preparar para a “era da inteligência”.

E, justamente no dia em que publicam essa carta repleta de intenções tranquilizadoras, chega também um duro golpe para o CEO da OpenAI, Sam Altman. Uma investigação publicada no The New Yorker volta a colocar em dúvida sua forma de atuação, bastante criticada por especialistas e engenheiros que trabalharam com ele. A conclusão de todos eles: é melhor não confiar em Sam Altman.

Aquilo que eles chamam de “era da inteligência” certamente terá impactos negativos em alguns aspectos, mas a OpenAI propõe, em seu documento, mudanças para mitigar esses problemas. Entre as medidas mais chamativas está a criação de um “fundo de riqueza pública” que distribuiria dividendos da IA diretamente aos cidadãos, independentemente de sua situação de trabalho.

Eles também sugerem impostos sobre o trabalho automatizado para financiar a seguridade social, além de projetos-piloto de semanas de trabalho de quatro dias sem redução salarial. A proposta é chamativa e busca, claro, tranquilizar os cidadãos diante de ameaças como a perda de empregos que pode resultar da adoção massiva da IA. O problema é que essa proposta surge em um momento delicado para a OpenAI, em meio a uma crise de reputação.

Cortina de fumaça?

A carta contrasta com a reportagem publicada na The New Yorker, na qual os autores entrevistaram mais de 100 pessoas “com conhecimento direto de como Sam Altman se comporta nos negócios”. Entre eles, rivais como Ilya Sutskever e, sobretudo, Dario Amodei, que fundaram suas próprias startups. Ambos criticam duramente Altman.

Sutskever reuniu documentos internos e mensagens que mostrariam enganos e manipulações. Amodei afirma que o principal obstáculo para a segurança da IA é o próprio Altman, que deixaria esse aspecto em segundo plano diante da ambição por poder pessoal e pelo crescimento acelerado da empresa. Para seus antigos parceiros, Altman não é um visionário, mas um ator com uma postura calculada.

O escândalo da demissão e posterior retorno de Altman ocorreu justamente por essa postura, na qual o conselho o acusava de “não ter sido consistentemente franco em suas comunicações”. É algo que já apareceu em outras ocasiões: Altman teria uma personalidade contraditória. Nela se misturariam o desejo patológico de agradar e ser aceito com uma aparente falta de preocupação com as consequências de longo prazo de suas mentiras.

A reportagem sugere que o CEO diria aos interlocutores o que querem ouvir para, depois, fazer o que realmente pretendia desde o início. É algo que, por exemplo, a jornalista Karen Hao relata repetidamente em seu livro Empire of AI — no qual, vale dizer, errou ao calcular o consumo de água de centros de dados mencionados em seus estudos. Na reportagem, também é citado como o conhecido programador Aaron Swartz o conheceu antes de morrer em 2013 e já teria dito sobre ele que “é um sociopata”.

A imagem pública é tudo

A publicação do documento da OpenAI ocorre em um momento especialmente crítico para a empresa, que está envolvida em uma crise reputacional e estratégica. A Anthropic conseguiu se tornar a queridinha da indústria de IA e a OpenAI percebeu que estava experimentando aplicações demais de IA que não eram rentáveis, buscando agora focar no que realmente gera retorno. As boas intenções apresentadas no documento tentam conquistar a opinião pública justamente quando a empresa planeja sua abertura de capital.

Os críticos de Sam Altman afirmam que ele é especialista em criar mecanismos de controle que acabam sendo apenas fachada. Ele apoia regulações de IA (ao menos as que o favorecem) e promove publicamente comitês de ética, alinhamento e segurança que, segundo relatos de pessoas próximas, acabam sendo enfraquecidos internamente.

Isso teria ocorrido quando prometeu destinar 20% da capacidade de computação ao time de superalinhamento, mas, na prática, teria cedido apenas entre 1% e 2%. Jan Leike, que foi nomeado co-líder desse time ao lado de Ilya Sutskever, pediu demissão em maio de 2024 afirmando que “a cultura e os processos de segurança ficaram em segundo plano diante de produtos chamativos”, como escreveu em uma sequência de publicações no X. Posteriormente, ele se juntou à Anthropic.

Embora a trajetória de Altman à frente da OpenAI —incluindo episódios recentes envolvendo o Pentágono— reforce parte das críticas, é importante lembrar que a concorrência nesse setor é extremamente acirrada. Muitos dos participantes da reportagem são rivais diretos e, portanto, suas críticas, explícitas ou não, também podem ser parcialmente interessadas, já que acabam prejudicando um concorrente.

Imagem | Xataka

Este texto foi traduzido/adaptado do site Xataka Espanha.


Inicio