O Pentágono ameaça uma resposta severa à Anthropic por proibir o uso do Claude em sistemas de vigilância e armamento autônomo

O Pentágono ameaça uma resposta severa à Anthropic por proibir o uso do Claude em sistemas de vigilância e armamento autônomo

8 hardware

Ministro da Defesa dos EUA, Pete Hegseth, está considerando a possibilidade de encerrar todos os laços comerciais com a Anthropic – uma das principais desenvolvedoras de IA – e classificá‑la como “ameaça à cadeia de suprimentos”. Isso significaria que qualquer contratado do Ministério teria que cortar relações com a Anthropic. A informação foi divulgada pela *Axios*, baseada em fonte no Pentágono.

O que está sendo discutido
Tema: Desligamento de vínculos
Hegseth afirma que “cortar esses laços será extremamente doloroso”, mas o Ministério pretende fazer a Anthropic pagar pelos custos das medidas forçadas.
Princípio de segurança
Shawn Parnell, representante oficial do Pentágono, enfatizou: “Exigimos que nossos parceiros ajudem as tropas a vencer em qualquer batalha”.
Relações atuais com a Anthropic
Claude – única IA usada em sistemas militares secretos dos EUA – também lidera o mercado comercial e foi empregada na recente operação no Venezuela.
Requisitos do sistema
O Ministério quer garantir que a IA não seja usada para vigilância maciça de americanos ou criação de armamento autônomo. A Anthropic considera tais condições “excessivamente restritivas” e aponta “zonas cinzentas” que as tornam inviáveis.
Negociações com outros gigantes
O Pentágono também está em discussões com OpenAI, Google e xAI, exigindo o direito de usar seus modelos “para todos os fins legais”.

Por que isso importa
1. Escala do contrato
* O contrato com o Ministério vale US$ 200 bilhões, enquanto a receita anual da Anthropic é cerca de US$ 14 bilhões.

2. Potencial tecnológico
* Claude já demonstrou confiabilidade e é usado em redes secretas dos EUA; 8 das 10 maiores empresas americanas são clientes.

3. Política de segurança
* O Pentágono acredita que a IA pode amplificar significativamente a coleta de dados (mensagens em redes sociais, permissões para porte oculto de armas) e potencialmente ameaçar civis.

4. Impacto na indústria
* A postura rígida sobre a Anthropic define o tom para futuras negociações com OpenAI, Google e xAI. Enquanto essas empresas concordaram em remover restrições para sistemas militares não secretos, seus modelos ainda não são usados em operações totalmente secretas.

Reações das partes
- Anthropic
- Confirmou compromisso com o uso de IA na segurança nacional e destacou que Claude foi o primeiro chatbot em redes secretas.
- Está disposto a conduzir “negociações produtivas e honestas” com o Ministério.

- Pentágono
- Segundo fontes, tem sentido descontentamento com a Anthropic há algum tempo e vê oportunidade de iniciar um conflito.
- Espera confirmação da ausência de vínculos com a Anthropic para continuar a colaboração.

Próximos passos
* Decisão sobre o status da Anthropic na cadeia de suprimentos ainda não foi tomada.
* O Pentágono pretende estabelecer a regra “uso em todos os fins legais” para modelos da OpenAI, Google e xAI, mas a decisão final ainda aguarda.

Assim, o Ministério está considerando medidas sérias contra uma das principais empresas de IA, enquanto tenta estabelecer novos padrões de segurança e controle sobre parceiros tecnológicos.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar