O Copilot revisa e-mails privados dos usuários, contornando a proteção — a Microsoft reconheceu isso como um erro.
A Microsoft descobriu um erro no Copilot que resumia e-mails confidenciais
De acordo com uma notificação interna da empresa, o bug no Microsoft 365 Copilot começou a ocorrer em meados de janeiro, fazendo com que o assistente de IA resumisse automaticamente o conteúdo dos e‑mails dos usuários. Isso contornava as políticas de prevenção à perda de dados (DLP) que as organizações utilizam para proteger informações sensíveis.
O que exatamente deu errado
* O bug número CW1226326 foi registrado em 21 de janeiro e afeta a função de chat na aba de trabalho do Copilot.
* Como resultado, o algoritmo leu incorretamente os e‑mails nas pastas “Enviados” e “Rascunhos”, incluindo mensagens marcadas como confidenciais (que limitam especificamente o acesso de ferramentas automatizadas).
* A mensagem da Microsoft afirma: *“E-mails dos usuários com a marcação ‘confidencial’ são processados incorretamente pelo Microsoft 365 Copilot Chat.”* Ela também destaca que a IA resume os e‑mails mesmo quando há uma etiqueta de confidencialidade ou política DLP.
Como a Microsoft está reagindo
* Mais tarde, a empresa confirmou que a causa é um erro no código e começou a trabalhar em um patch no início de fevereiro.
* Até meados da semana atual, a Microsoft informou que continua monitorando o lançamento da correção e entrando em contato com os usuários afetados para avaliar a qualidade da atualização.
O que ainda não se sabe
A Microsoft ainda não especificou prazos completos para resolver o erro nem revelou quantos usuários ou organizações foram afetados. O relatório observa que, à medida que a investigação avança, o escopo do problema pode mudar.
Comentários (0)
Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.
Faça login para comentar