O governo dos Estados Unidos está pressionando a Anthropic a retirar as proteções de segurança (guardrails) de seu modelo de IA, o Claude, sob ameaça de cortar contratos e parcerias com o United States Department of Defense. A disputa expõe um conflito crescente entre prioridades de defesa e preocupações éticas sobre o uso de inteligência artificial no campo militar.
A exigência do Pentágono, liderada pelo secretário de Defesa Pete Hegseth, é que a Anthropic permita ao governo usar Claude em qualquer aplicação “legal”, incluindo vigilância doméstica em grande escala ou sistemas de armas autônomas sem supervisão humana — algo que a empresa tem resistido firmemente.
Espionagem permitida?
Se a Anthropic não ceder até o prazo estipulado, o departamento ameaça rotulá-la como um “risco à cadeia de suprimentos”, o que pode excluí-la de futuros contratos de defesa e até permitir o uso do Defense Production Act para forçar o acesso à tecnologia.
O CEO da Anthropic, Dario Amodei, afirmou que não pode concordar “de boa vontade” com a remoção de salvaguardas que impedem o uso da IA em vigilância de cidadãos ou armas autônomas, destacando que tais aplicações ainda estão além de limites seguros e éticos.
Essa tensão ocorre enquanto outros modelos, como o chatbot da xAI, Grok, ganham espaço em contratos classificados, e levanta um debate maior sobre até que ponto empresas de IA devem comprometer princípios de segurança em nome da defesa.
Ver 0 Comentários