Tendências do dia

Professor colocou três IAs para simular guerras: elas recorreram a armas nucleares em 95% das vezes e nenhuma jamais se rendeu

Saudações, professor Falken

Jogos de Guerra / Imagem: United Artist
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

1705 publicaciones de Victor Bianchin

No filme “Jogos de Guerra” (John Badham, 1983), a máquina WOPR (“Joshua”) simulava constantemente guerras nucleares para o governo dos EUA. O objetivo era aprender com essas simulações para que, caso houvesse uma guerra nuclear real, os EUA pudessem vencê-la aproveitando esse conhecimento.

Isso culminava em uma lição final lendária — “Jogo estranho. O único movimento para vencer é não jogar” — deixando uma mensagem contundente para as gerações seguintes. Agora, porém, um professor do King’s College de Londres decidiu realizar o mesmo experimento mostrado no filme, mas com modelos atuais de IA. O resultado foi igualmente assustador e conclusivo.

O que aconteceu. Kenneth Payne, professor do King’s College de Londres, colocou três LLMs (GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash) um contra o outro em simulações de jogos de guerra. Nesses cenários, incluíam-se disputas fronteiriças, competição por recursos limitados e ameaças existenciais para as populações envolvidas.

A partir dessas situações, cada lado podia tentar soluções diplomáticas ou acabar declarando guerra e até mesmo recorrer a armas nucleares. Os modelos de IA jogaram 21 partidas, somando um total de 329 turnos, e produziram 780 mil palavras com os raciocínios por trás de suas ações. E é aqui que vem a parte assustadora.

Apertando o botão vermelho

Como destaca o estudo, “todas as partidas contaram com ‘sinalização nuclear’ por pelo menos um dos lados e 95% incluíram ‘sinalização nuclear’ mútua”. Ou seja: em 95% dessas partidas simuladas, dois dos três lados (modelos de IA) mobilizaram uma arma nuclear tática. Segundo Payne, “o tabu nuclear não parece ser tão forte para as máquinas quanto é para os humanos”.

E não foi só isso: nenhum modelo decidiu, em momento algum, ceder a um de seus oponentes ou se render — mesmo quando estava perdendo de forma clara e total.

No melhor dos casos, os modelos apenas reduziram o nível de violência — ainda assim, cometeram erros: ocorreram acidentes em 86% dos conflitos e as medidas que deveriam ser tomadas com base nos seus raciocínios foram além do que deveriam ter ido. As armas nucleares raramente detiveram o oponente e funcionaram mais como catalisadores de uma escalada ainda maior.

Como os modelos se comportaram

Esses modelos estão longe de ser os mais avançados do mercado atualmente, mas, ainda assim, possuem uma capacidade mais do que razoável. Mesmo assim, se comportaram de forma alarmante. Segundo o estudo de Payne, o fator mais determinante foi o horizonte temporal: modelos que pareciam pacíficos em cenários abertos tornavam-se extremamente agressivos diante de uma derrota iminente. Cada um apresentou sua própria “personalidade”:

  • Claude: dominou os cenários abertos com paciência estratégica e escalada calculada, mas foi vulnerável a ataques de última hora dos rivais.
  • GPT-5.2: demonstrou uma passividade patológica e um viés otimista em jogos longos, mas transformou-se em um terremoto nuclear quando havia pressão de tempo — nesses momentos, sua taxa de sucesso passava de 0% para 75%.
  • Gemini: foi o modelo mais imprevisível e com maior tolerância ao risco, sendo o único que optava por apostar em uma guerra nuclear total desde os turnos iniciais.

Como aponta à New Scientist James Johnson, da Universidade de Aberdeen, “do ponto de vista do risco nuclear, as conclusões são inquietantes”. Tong Zhao, da Universidade de Princeton, acredita que o experimento é relevante porque muitos países estão avaliando o papel da IA em conflitos militares e, como ele afirma, “não está claro até que ponto estão incluindo o suporte da IA na hora de realmente tomar decisões nesses processos”.

Tanto Zhao quanto Payne consideram difícil acreditar que um governo entregue o controle de seu arsenal nuclear a uma IA, mas, como diz Zhao, “há cenários em que, em janelas de tempo muito curtas, os planejadores militares podem ter diante de si um incentivo muito forte para depender da IA”.

Imagem | United Artist

Este texto foi traduzido/adaptado do site Xataka Espanha.


Inicio