O Claude Mythos Preview virou de cabeça para baixo o segmento da IA. O novo modelo da Anthropic é tão poderoso que seus criadores preferiram não lançá-lo publicamente. No anúncio oficial, já deixaram claro: ele é capaz de encontrar vulnerabilidades de segurança que pareciam quase impossíveis de detectar, o que permitiu à Anthropic transmitir uma mensagem inquietante: se você quer que seu sistema seja realmente seguro, vai precisar do Claude Mythos Preview para garantir isso.
A notícia provocou uma onda de interesse por um modelo cujo valor já não está em “programar melhor”: ele é valorizado porque consegue (teoricamente) deixar seu aplicativo ou serviço protegido contra ciberataques. Isso é crítico especialmente nos tempos atuais, com os mais interessados sendo governos e instituições financeiras.
Por enquanto, apenas alguns poucos têm acesso ao Claude Mythos Preview. Antes, a IA nos conquistava com o vibecoding. Agora, vai nos conquistar salvando nossas economias.
O discurso da Anthropic foi tão forte que a OpenAI não quis ficar para trás. Assim que lançou seu modelo mais recente, o GPT-5.5, há alguns dias, já mencionou que dispunha de uma variante chamada GPT-5.5-Cyber, especificamente destinada a realizar análises de cibersegurança. Aqui, a empresa liderada por Sam Altman quis transformar seu modelo em uma opção mais acessível para todo tipo de organizações e empresas e abriu um programa de acesso certificado, algo que, na Anthropic, aparentemente não existe. O próprio Sam Altman havia classificado o movimento da Anthropic como uma manobra de marketing, só para, depois, acabar copiando essa mesma estratégia do medo.
Não satisfeita com esse movimento, a OpenAI lançou nesta semana o Daybreak. Não se trata de um novo modelo de IA que concorra com o Claude Mythos Preview, mas de uma iniciativa de cibersegurança que combina modelos de IA como o GPT-5.5-Cyber com o agente especializado nessa área, Codex Security. A OpenAI restringiu o acesso (de forma semelhante ao que a Anthropic fez com o Claude Mythos Preview), mas permite solicitar uma varredura de segurança, além de entrar em contato com sua equipe de vendas.
Já há várias organizações com acesso, como Akamai, Cisco, Cloudflare e Oracle, entre outras, mas é irônico que, mais uma vez, Sam Altman tenha criticado a rival para depois copiar suas ideias. Isso, no fim das contas, é uma estratégia de marketing para vender suas soluções de IA com foco em cibersegurança.
Como o mercado está reagindo
Um relatório do Google Threat Intelligence Group (GTIG) alimentou ainda mais o assunto nesta semana. Os especialistas em cibersegurança da empresa destacaram como conseguiram detectar primeiro e depois impedir um exploit desenvolvido inteiramente com IA. Nesse caso, a Google não anunciou nenhum modelo ou iniciativa que concorra diretamente com os de seus rivais, mas passou a se juntar ao coro que prega: a IA será a próxima grande ameaça à cibersegurança.
Alguns especialistas em cibersegurança já alertam para as implicações desse fenômeno. Himanshu Anand explicou como começa a perder sentido a conhecida política de divulgação de 90 dias. Segundo ela, quando alguém descobre uma vulnerabilidade em um aplicativo, o desenvolvedor deve ter um prazo de 90 dias para criar e distribuir o patch. Como ele mesmo explicou: “Quando dez pesquisadores que não se conhecem encontram a mesma falha em seis semanas, e a IA é capaz de transformar isso em um exploit operacional em 30 minutos, quem exatamente esse prazo de 90 dias protege? Ninguém”.
Enquanto as gigantes do setor se posicionam, o modelo da Anthropic mostrou que não é infalível. O desenvolvedor da famosa ferramenta curl, Daniel Stenberg, relatou nesta semana como conseguiu usar o Claude Mythos Preview para analisar seu código-fonte. O curl, programado em C, tem 176 mil linhas de código e 660 mil palavras — 12% mais que a edição em inglês do livro Guerra e Paz. Trata-se de um projeto extremamente maduro e muito bem administrado, por isso era especialmente interessante saber se o modelo encontraria muitas falhas de segurança.
O modelo da Anthropic afirmou ter encontrado cinco falhas confirmadas de segurança, mas, após análise com sua equipe, Daniel Stenberg deixou claro que, na verdade, encontrou apenas uma. E uma de “baixa severidade”, pouco perigosa. Das demais, três eram falsos positivos e a quarta era um bug sem importância, não uma falha de segurança.
Para Stenberg, o Claude Mythos Preview não parece muito mais avançado do que outras ferramentas do tipo que já usou: “talvez esse modelo seja um pouquinho melhor, mas, mesmo que seja, não é melhor a ponto de causar grande impacto na análise de código”. Ainda assim, o desenvolvedor elogiou as novas ferramentas de IA para análise de código, que, segundo ele, são significativamente melhores que as ferramentas tradicionais para essa tarefa.
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários