Há momentos na indústria tecnológica em que uma empresa decide que há linhas que não cruza, independentemente de quem esteja do outro lado a fazer pressão, e foi o que aconteceu esta semana com a Anthropic – a empresa por detrás do assistente de inteligência artificial Claude –, quando o seu CEO, Dario Amodei, recusou publicamente as exigências do Departamento de Defesa dos Estados Unidos. Sem rodeios, sem cedências de última hora, sem o habitual jogo de cintura corporativo que transforma um “não” em “talvez mais tarde”.
Anthropic: o que está em jogo

A Anthropic tem um contrato de 200 milhões de dólares com o Pentágono, assinado em Julho passado, e foi inclusivamente a primeira empresa do sector a integrar os seus modelos de IA em redes militares classificadas. Ou seja, não estamos a falar de uma empresa que nunca quis trabalhar com as forças armadas norte-americanas – estamos a falar de uma empresa que quis fazê-lo… mas com condições.
Essas condições são duas e são simples de entender: a Anthropic quer garantias de que os seus modelos não serão usados em armas totalmente autónomas, isto é, sistemas que seleccionam e atacam alvos sem intervenção humana, e que não servirão para vigilância em massa de cidadãos norte-americanos no território nacional.
Não é um manifesto pacifista mas um pedido de balizas mínimas sobre aplicações que a própria comunidade científica, e vários organismos internacionais, consideram de risco elevado. O Pentágono queria o oposto, ou seja, acesso irrestrito para “todos os usos legais”, uma formulação que, na prática, retira à Anthropic qualquer capacidade de escrutinar como os seus modelos são aplicados.
Hegseth bate o punho na mesa e Amodei não se move
O ex-pivot de notícias Foxiano, e agora Secretário de Defesa (ele chama-lhe ministério da guerra) Pete Hegseth, escalou o conflito de forma bastante directa ao ameaçar classificar a Anthropic como “risco para a cadeia de abastecimento” – uma designação que, no contexto norte-americano, pode ter consequências sérias para um empresa –, e chegou a invocar a possibilidade de activar o Defense Production Act, uma lei que permite ao governo federal obrigar empresas a satisfazer necessidades de defesa nacional.
Em linguagem corrente foi algo como “ou fazem o que pedimos ou tornamos a vossa vida muito complicada!” Hegseth reuniu pessoalmente com Amodei na passada terça-feira no Pentágono e deu o prazo de até à noite de sexta-feira. Na quarta-feira à noite chegou a “última e definitiva proposta” do Departamento de Defesa mas na quinta-feira Amodei respondeu em declaração pública “as ameaças não alteram a nossa posição“. Mas a frase que ficou foi “não podemos aceitar em boa consciência”, uma formulação deliberada que mistura a linguagem da ética com a da responsabilidade corporativa.
O porta-voz do Pentágono e o argumento da legalidade

O porta-voz principal do Pentágono, Sean Parnell, tentou desmontar o argumento da Anthropic lembrando que a vigilância em massa de norte-americanos é ilegal e que, por conseguinte, ao exigir o uso para “todos os fins legais”, o Departamento de Defesa não estaria a pedir nada de extraordinário. É um argumento com alguma lógica formal mas que ignora uma realidade prática: o que é “legal” num contexto de segurança nacional é frequentemente definido por quem está no poder e essa definição muda com as administrações.
Parnell acrescentou que a posição da Anthropic “coloca em risco operações militares críticas e pode pôr em perigo os nossos combatentes” – uma linguagem de alto impacto emocional que a empresa terá certamente antecipado ao preparar a sua resposta.
O contexto que explica a dureza da negociação
Vale a pena notar que os concorrentes directos da Anthropic – OpenAI, Google e xAI (a empresa de Elon Musk) – aceitaram as condições do Pentágono sem estas restrições. A xAI foi ainda mais longe e aceitou esta semana a integração em sistemas classificados.
Isto coloca a Anthropic numa posição desconfortável comercialmente mas também numa posição diferenciada: é a única grande empresa de IA a tratar as salvaguardas éticas como linha vermelha em vez de ponto de negociação.
Amodei deixou a porta entreaberta ao afirmar que a preferência forte da empresa é continuar a servir o Departamento de Defesa mas com as duas salvaguardas pedidas em vigor. E acrescentou que, se o Pentágono decidir prescindir da Anthropic, a empresa colaborará numa transição tranquila para outro fornecedor, “evitando qualquer perturbação em operações militares em curso”. Uma saída elegante, que ao mesmo tempo demonstra boa fé e deixa claro que a empresa não está refém do contrato.
Em suma
O que aconteceu esta semana com a Anthropic é raro no sector tecnológico: uma empresa recusou ceder à pressão directa do governo norte-americano em matéria de princípios, mesmo com ameaças concretas de retaliação comercial. Pode chamar-se-lhe postura ética, pode chamar-se-lhe estratégia de posicionamento a longo prazo e, provavelmente, é as duas coisas ao mesmo tempo.
O que é certo é que Dario Amodei apostou na consistência quando seria mais fácil e mais lucrativo dobrar a coluna ou, como agora se diz, bend the knee. Para quem usa o Claude e se preocupa com a forma como os modelos de IA são implantados no mundo, é uma semana para ficar de olho no que o Pentágono decide fazer a seguir.





