Dario Amodei, CEO da Anthropic, publicou um comunicado há algumas horas anunciando algo sem precedentes: o Departamento de Defesa (DoD) confirmou que "fomos designados como um risco para a cadeia de suprimentos de segurança nacional" dos EUA. Isso dá sequência à ameaça emitida há alguns dias, transformando automaticamente a Anthropic, uma das melhores empresas de IA do país (se não a melhor), em uma pária. Quais são as implicações disso? Muitas, e todas elas enormes.
A Anthropic foi banida
Essa designação a impede de fazer negócios ou desenvolver projetos para as Forças Armadas dos EUA. Isso por si só já é grave, mas não é apenas o Pentágono que será banido: qualquer empresa que trabalhe com o Pentágono também está proibida de usar os serviços de IA da Anthropic em qualquer projeto governamental. Essa decisão pode ter repercussões devastadoras para a Anthropic. A perda de receita pode ser enorme e, se outras agências federais seguirem o exemplo do Pentágono, a Anthropic poderá enfrentar sérias dificuldades para defender sua viabilidade contra a concorrência. Essa designação não é imediata e haverá um período de transição de seis meses para que o Departamento de Defesa migre para outros fornecedores (como a OpenAI).
Isso nunca havia sido feito antes com uma empresa nacional
O veto contra a Anthropic é absolutamente extraordinário, e essa designação como "risco para a cadeia de suprimentos" era uma medida historicamente reservada para adversários estrangeiros como a Huawei. Ao aplicar esse rótulo a uma empresa americana, o Departamento de Defesa rompe seus laços comerciais e marca a empresa com um estigma, uma espécie de "marca da vergonha" que poderia afastar investidores e parceiros globais.
Conflito ético
O cerne do conflito não é técnico, mas moral. A Anthropic nasceu como um spin-off da OpenAI com o objetivo de evitar riscos existenciais no desenvolvimento de modelos de IA, e a empresa sempre se posicionou como uma forte defensora do alinhamento com os valores humanos. Seu CEO, Dario Amodei, insistiu que sua IA não poderia ser usada para vigilância em massa ou para o desenvolvimento de armas autônomas letais, mas isso entrou em conflito direto com o governo e o establishment militar dos EUA, que desejavam acesso praticamente total e irrestrito, exceto pelos impostos pela Constituição e pelas leis dos EUA.
Aos tribunais
Amodei explicou em sua declaração que contestará a decisão judicialmente. Seu argumento, explica ele, é que o artigo 3252 do Título 10 do Código dos Estados Unidos é um instrumento de proteção, não de punição. A defesa terá que se concentrar em demonstrar que o Departamento de Defesa não utilizou os meios menos restritivos para garantir a segurança. Se forem bem-sucedidos, poderão invalidar a designação, embora o dano à reputação já esteja feito.
O dilema da soberania
Pode uma empresa privada estar acima do governo? O Pentágono argumenta que nenhum fornecedor pode interferir na cadeia de comando, e uma coisa é certa: para uma IA ter cláusulas de uso que limitem as operações militares, é preciso ceder a soberania nacional a um algoritmo privado e aos termos de serviço de um conselho de administração e um CEO que não foram eleitos democraticamente.
A ameaça do intervencionismo extremo
Essa medida sem precedentes pode acabar criando um precedente. Se o governo punir empresas que fazem perguntas incômodas ou impõem limites ao uso de sua tecnologia, a filosofia da inovação em IA poderá mudar. Empresas que desejam sobreviver teriam que fazê-lo sem questionar ordens, por puro medo de falência e insolvência.
Período de transição
No entanto, foi concedido um período de seis meses para a transição, o que parece deixar claro que o Pentágono ainda depende da tecnologia da Anthropic para as operações atuais, como demonstrado pelo sequestro de Nicolás Maduro e pela análise de inteligência em curso sobre o conflito no Irã. Resta saber como os eventos se desenrolarão, mas a perspectiva para a Anthropic é certamente preocupante. E para as outras empresas também, caso os tribunais decidam a favor do Departamento de Defesa.
Ver 0 Comentários