Pentágono ameaça cortar acesso da Anthropic se empresa continuar a garantir segurança de usuários

Governo quer poder usar Claude para vigilância e armas

IA | Fonte: Unsplash/Immo Wegmann
Sem comentários Facebook Twitter Flipboard E-mail
vika-rosa

Vika Rosa

Redatora
vika-rosa

Vika Rosa

Redatora

Jornalista com mais de 5 anos de experiência, cobrindo os mais diversos temas. Apaixonada por ciência, tecnologia e games.


283 publicaciones de Vika Rosa

O governo dos Estados Unidos está pressionando a Anthropic a retirar as proteções de segurança (guardrails) de seu modelo de IA, o Claude, sob ameaça de cortar contratos e parcerias com o United States Department of Defense. A disputa expõe um conflito crescente entre prioridades de defesa e preocupações éticas sobre o uso de inteligência artificial no campo militar.

A exigência do Pentágono, liderada pelo secretário de Defesa Pete Hegseth, é que a Anthropic permita ao governo usar Claude em qualquer aplicação “legal”, incluindo vigilância doméstica em grande escala ou sistemas de armas autônomas sem supervisão humana — algo que a empresa tem resistido firmemente.

Espionagem permitida?

Se a Anthropic não ceder até o prazo estipulado, o departamento ameaça rotulá-la como um “risco à cadeia de suprimentos”, o que pode excluí-la de futuros contratos de defesa e até permitir o uso do Defense Production Act para forçar o acesso à tecnologia.

O CEO da Anthropic, Dario Amodei, afirmou que não pode concordar “de boa vontade” com a remoção de salvaguardas que impedem o uso da IA em vigilância de cidadãos ou armas autônomas, destacando que tais aplicações ainda estão além de limites seguros e éticos.

Essa tensão ocorre enquanto outros modelos, como o chatbot da xAI, Grok, ganham espaço em contratos classificados, e levanta um debate maior sobre até que ponto empresas de IA devem comprometer princípios de segurança em nome da defesa.

Inicio