A Anthropic alertou que o futuro modelo Claude Mythos se tornará um “wonder-whack” para hackers.

A Anthropic alertou que o futuro modelo Claude Mythos se tornará um “wonder-whack” para hackers.

11 hardware

Ameaças cibernéticas de novos modelos de IA: o que as empresas precisam saber

O que isso muda na situação
Anthropic está preparando o Claude Mythos. O sistema promete acesso autônomo, preciso e complexo a sistemas corporativos, governamentais e municipais. Segundo a Axios, em 2026 o risco de ataques maciços com sua ajuda aumentará significativamente. Afirmações de “estar à frente” de outras IAs
No blog da Anthropic, diz que Mythos já supera quaisquer modelos existentes em capacidades cibernéticas e prevê uma onda de ataques que ultrapassarão os esforços de defesa.

Primeiros exemplos reais
No final de 2025, um grupo apoiado pelo Estado chinês usou agentes de IA para hackear autonomamente cerca de 30 alvos ao redor do mundo. A IA autogerenciava entre 80 % e 90 % das ações táticas.

Novas capacidades dos sistemas de agente
Modelos modernos permitem que os agentes pensem, atuem e improvisem sem pausas. O escopo do ataque agora depende não do tamanho da equipe, mas da potência computacional do atacante. Uma pessoa pode organizar um ciberataque complexo.

Aumento da vulnerabilidade das empresas
Os funcionários estão cada vez mais lançando Claude, Copilot e outros modelos de agente a partir de dispositivos pessoais, criando seus próprios agentes sem controle adequado. Isso abre um novo canal de intrusão para criminosos – “IA sombria”.

Avaliação dos especialistas
Uma pesquisa do Dark Reading mostrou que 48 % dos especialistas em segurança cibernética consideram o AI de agente como o principal vetor de ataques em 2026, até mesmo acima de deepfakes e outros riscos.

O que fazer agora
1. Compreensão do risco – cada funcionário deve reconhecer a ameaça do uso de agentes de IA perto de informações confidenciais.

2. Ambientes isolados – o trabalho com IAs de agente deve ocorrer em ambientes seguros e isolados, sem acesso direto a sistemas críticos.

3. Controle e auditoria – implemente políticas rigorosas de controle sobre a criação e uso de agentes de IA próprios dentro da organização.

4. Treinamento de pessoal – conduza regularmente treinamentos sobre o uso seguro das novas tecnologias.

Esta ameaça é reconhecida como uma das maiores para as empresas no momento, portanto a preparação para ela deve se tornar prioridade na estratégia de segurança da informação.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar