Anthropic revela IA altamente poderosa, mas afirma que ela é perigosa demais para ser lançada normalmente

Nada de acesso para o público comum

Sem comentários Facebook Twitter Flipboard E-mail
vika-rosa

Vika Rosa

Redatora
vika-rosa

Vika Rosa

Redatora

Jornalista com mais de 5 anos de experiência, cobrindo os mais diversos temas. Apaixonada por ciência, tecnologia e games.


382 publicaciones de Vika Rosa

A empresa de inteligência artificial Anthropic anunciou um novo modelo experimental capaz de descobrir falhas críticas em softwares, mas afirma que ele é tão poderoso que não será disponibilizado ao público. A tecnologia, chamada Claude Mythos Preview, está sendo usada apenas por um grupo restrito de empresas para fortalecer sistemas de segurança digital.

O modelo faz parte de uma iniciativa chamada Project Glasswing, que busca antecipar um problema crescente: o uso de IA avançada para explorar vulnerabilidades em sistemas computacionais. Segundo a Anthropic, o Mythos já identificou milhares de falhas de segurança inéditas, incluindo vulnerabilidades graves em sistemas operacionais, navegadores e softwares amplamente utilizados.

A empresa argumenta que liberar uma ferramenta com esse nível de capacidade poderia facilitar ataques cibernéticos, caso caísse nas mãos erradas.

IA que encontra falhas que passaram décadas escondidas

Nos testes internos, o modelo demonstrou desempenho superior ao de ferramentas tradicionais de segurança. Entre os exemplos citados pela empresa está a descoberta de uma vulnerabilidade de 27 anos no OpenBSD, um sistema operacional conhecido por sua segurança robusta e amplamente utilizado em infraestrutura crítica.

O Mythos também encontrou um erro de 16 anos na biblioteca FFmpeg, utilizada em inúmeros softwares para codificação e decodificação de vídeo. O problema estava em uma linha de código que já havia sido executada milhões de vezes por testes automatizados sem que a falha fosse detectada.

Em outro caso, o modelo conseguiu combinar vulnerabilidades do kernel do Linux para escalar privilégios de um usuário comum até o controle total do sistema.

Para avaliar seu desempenho, a Anthropic submeteu o modelo a benchmarks especializados em segurança. No teste CyberGym, o Mythos alcançou 83,1% de acerto na identificação de vulnerabilidades, superando modelos anteriores da própria empresa.

A corrida entre defensores e atacantes

A Anthropic afirma que a ideia é dar vantagem aos defensores antes que criminosos também passem a usar ferramentas semelhantes. Por isso, o acesso ao modelo está sendo concedido apenas a organizações selecionadas, incluindo empresas como Amazon Web Services, Apple, Google, Microsoft, Nvidia e Cisco, além de instituições financeiras e projetos de software de código aberto.

Essas organizações usam o sistema para analisar códigos e relatar vulnerabilidades aos desenvolvedores responsáveis, que podem corrigir os problemas antes que sejam explorados.

Segundo a empresa, o avanço rápido da inteligência artificial torna inevitável que tecnologias semelhantes surjam em breve. Por isso, a estratégia atual é acelerar a identificação e correção de falhas críticas, antes que ferramentas desse tipo sejam usadas em ataques em larga escala.

Inicio