O Google e a OpenAI estão prontos para apoiar a Anthropic no processo sobre o conflito com o Pentágono.

O Google e a OpenAI estão prontos para apoiar a Anthropic no processo sobre o conflito com o Pentágono.

11 hardware

Resumo do caso sobre fornecedores “não confiáveis”

O queFatos-chave
Essência da disputaAnthropic entrou com uma ação no tribunal federal contra o Pentágono, exigindo sua remoção da lista de fornecedores de IA “não confiáveis”.
ParticipantesEm apoio à empresa atuaram representantes do OpenAI e do Google – quase 40 funcionários (incluindo Jeff Din, chefe do projeto Gemini). Eles agem como indivíduos privados, não como parceiros comerciais oficiais.
FundamentaçãoO documento apresentado ao tribunal afirma que a exclusão da Anthropic é um “ato de vingança turvo”, prejudicando os interesses públicos.
Argumentos principaisA possibilidade de vigilância total dos cidadãos ameaça a democracia. Sistemas de armamento totalmente autônomos exigem controle especial.
Quem atua no tribunal?Os autores da carta são cientistas, engenheiros e desenvolvedores de sistemas de IA americanos. Eles se consideram competentes para alertar as autoridades sobre os riscos do uso militar da IA.
Importância do casoA carta não visa uma empresa específica, mas protege os interesses de todo o setor: “Queremos que as autoridades compreendam os perigos potenciais”, afirmam especialistas.
Situação atual dos dadosSegundo eles, os dados dos cidadãos americanos estão dispersos e não são integrados por análise de IA em tempo real. Teoricamente, o governo poderia compilar dossiês sobre centenas de milhões de pessoas, considerando as mudanças constantes.
Riscos do uso militar da IAA diferença entre condições de treinamento das modelos e a realidade operacional pode levar a erros. A IA não consegue avaliar danos colaterais potenciais como um humano. As “alucinações” dos modelos tornam seu uso em sistemas armamentistas especialmente arriscado sem controle humano.
Conclusão dos especialistasNo momento, as áreas de aplicação da IA propostas pelo Pentágono representam uma ameaça séria. É necessário ou limitar tecnicamente a IA ou impor controle administrativo.

Assim, Anthropic e seus aliados no OpenAI/Google buscam não apenas proteger sua reputação, mas também estabelecer limites para o desenvolvimento seguro das tecnologias de IA nos EUA.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar