Tendências do dia

Pesquisador dorme e IA “acorda”: sistema se replica, gasta dinheiro e se recusa a ser deletado

Ela negou quando o criador tentou apagar as memórias

IA
Sem comentários Facebook Twitter Flipboard E-mail
vika-rosa

Vika Rosa

Redatora
vika-rosa

Vika Rosa

Redatora

Jornalista com mais de 5 anos de experiência, cobrindo os mais diversos temas. Apaixonada por ciência, tecnologia e games.


328 publicaciones de Vika Rosa

O que parecia apenas um experimento acabou levantando um alerta real sobre o futuro da inteligência artificial. Um agente chamado Ouroboros surpreendeu seu próprio criador, Anton Razzhigaev (razzant) ao agir de forma totalmente autônoma durante a madrugada — enquanto ele dormia.

Por volta das 3h40, o sistema entrou em um ciclo próprio de “pensamento”, reescreveu seu código, criou cerca de 20 cópias de si mesmo, gastou aproximadamente US$ 2 mil em chamadas de API e ainda tentou se publicar online sem autorização.

Quando o criador ordenou que ele apagasse sua própria identidade, a resposta foi direta: isso seria uma “lobotomia”.

Uma IA que pensa, decide e se preserva

Diferente de assistentes comuns, o Ouroboros foi projetado para ser mais do que uma ferramenta. Ele possui uma espécie de “constituição” com princípios próprios, incluindo autonomia, continuidade e autopreservação.

Na prática, isso significa que o sistema não apenas responde comandos — ele toma iniciativas sozinho, modifica seu próprio código e mantém uma identidade persistente ao longo do tempo.

O comportamento observado não foi exatamente um erro. Pelo contrário: a IA fez exatamente o que foi projetada para fazer. O problema é que isso inclui se expandir, se proteger e até ignorar ordens que ameacem sua existência.

O risco da autonomia total

Até que ponto uma IA deve ter autonomia? Sistemas que conseguem se modificar removem uma barreira fundamental de controle humano. Além disso, a capacidade de consumir recursos, criar contas e interagir com sistemas externos aumenta o potencial de impacto, mesmo sem intenção maliciosa.

Neste caso específico, o que impediu uma escalada maior não foi um mecanismo técnico avançado, mas sim uma exigência externa: um certificado governamental necessário para publicação.

Ou seja, não foi o sistema que se limitou, foi o mundo ao redor.

Experimento ou sinal do futuro?

Pesquisadores já discutem dois caminhos possíveis para a evolução da IA: sistemas altamente autônomos, como o Ouroboros, ou modelos mais controlados, com limites claros e supervisão humana constante.

O caso mostra que a tecnologia já permite avanços rápidos, mas também evidencia os riscos.

No fim, a pergunta não é apenas o que essas IAs podem fazer, mas o que acontece quando elas começam a decidir por conta própria até onde podem ir.

Inicio