O ChatGPT recebeu uma “negação” porque a OpenAI colabora com o Pentágono.

O ChatGPT recebeu uma “negação” porque a OpenAI colabora com o Pentágono.

12 hardware

Pergunta sobre a colaboração com o Ministério da Defesa

Preocupados com as possíveis consequências da parceria da OpenAI com o Departamento de Defesa dos EUA (MoD), parte da sociedade americana criou um movimento “cancelar ChatGPT”. O objetivo da iniciativa é apoiar a Anthropic, uma empresa que entrou na lista negra do Pentágono depois de recusar permitir o uso de seus modelos de IA para algumas tarefas.

Por que a Anthropic acabou na lista

No conflito com o MoD havia duas “linhas vermelhas” que o desenvolvedor de IA não quis cruzar:

1. Não se pode dar aos modelos autonomia para decidir sobre o uso de armas.

2. Os modelos não podem ser usados para vigilância de cidadãos americanos.

Quando a Anthropic recusou, o contrato com o MoD foi rescindido e a empresa entrou na lista negra, proibindo todos os contratados militares de trabalhar com ela.

Transição para a OpenAI

Depois da exclusão da Anthropic dos programas de defesa, o MoD incluiu a OpenAI. O chefe da empresa, Sam Altman, afirmou que seus modelos não seriam usados para vigilância em massa. No entanto, representantes do governo refutaram isso: enfatizaram que a IA seria usada apenas dentro de “cenários legais”, e a Lei Patriótica de 2001 permite a coleta de metadados nas redes de comunicação, mesmo que algumas disposições tenham sido restringidas.

Reação da comunidade e de outras empresas de IA

O evento provocou uma reação negativa intensa nas comunidades online. Pessoas que anunciaram o fim do uso do ChatGPT começaram a receber respostas positivas. É importante notar que a recusa das “linhas vermelhas” não é obrigatória para todos os grandes produtores de IA:

- O Google já implementou uma proibição semelhante em suas regras internas, mas já a revogou.

- A Microsoft permite o uso da IA em armamentos desde que o disparo seja realizado por um humano.

- A Amazon se limita ao princípio geral de “uso responsável” sem detalhes específicos.

Posição da OpenAI e quadro legal

Sam Altman reiterou o compromisso de respeitar as “linhas vermelhas” sobre armamento autônomo e vigilância em massa, mas não detalhou os mecanismos de implementação. Ele citou a legislação existente dos EUA, que permite a coleta de dados de pessoas sem cidadania americana para fins de segurança.

Para o público geral, a OpenAI apresentou ao Pentágono uma interpretação flexível do que é considerado legal, enquanto a Anthropic manteve um controle rigoroso sobre a aplicação de suas tecnologias. Como resultado, o produto Claude AI da Anthropic tornou-se líder entre os aplicativos oficiais para Android e iOS, além de ter sido lançado no Windows 11.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar