A Microsoft oferece uma solução para impedir a disseminação de deepfakes na internet
Microsoft lança um novo conjunto de padrões para verificar a autenticidade do conteúdo online
A Microsoft anunciou a criação de "padrões técnicos" para avaliar a veracidade de materiais que aparecem na internet. O objetivo é ajudar desenvolvedores de IA e plataformas sociais a determinar se imagens ou vídeos foram alterados por ferramentas digitais (por exemplo, deepfakes) e quão confiáveis são os métodos de documentação desses materiais.
Como funciona o sistema de verificação
* Exemplo com um quadro de Rembrandt
- É criado um log detalhado da origem: locais de armazenamento, proprietários anteriores.
- O quadro é escaneado e a partir das pinceladas gera-se uma assinatura matemática – "impressão digital".
- Ao expor a obra em museu, o visitante pode abrir esses dados e confirmar sua originalidade.
* Métodos já em uso
A Microsoft estudou 60 combinações de técnicas existentes (remoção de metadados, pequenas alterações, manipulação direcionada). Para cada modelo foi simulado o comportamento em diferentes cenários.
Os pesquisadores identificaram:
- Combinações confiáveis – podem ser mostradas ao público amplo.
- Combinações não confiáveis – apenas complicam a situação, gerando mais confusão.
Por que isso importa
* A legislação exige transparência de IA (por exemplo, "Lei de Transparência de IA" na Califórnia).
* Até agora a Microsoft não anunciou se aplicará esses padrões em seus serviços: Copilot, Azure, OpenAI e LinkedIn.
Os padrões não definem a veracidade do conteúdo; eles apenas mostram se o material foi manipulado e de onde veio. Se a indústria os adotar, criar conteúdo enganoso tornará muito mais difícil.
Situação da indústria
Empresa | Ação | Status
Microsoft | C2PA (2021) – rastreamento de origem | Em desenvolvimento
Google | Watermarks para conteúdo gerado por IA (a partir de 2023) | Implantação ativa
Mas o conjunto completo de ferramentas da Microsoft pode permanecer apenas um "projeto" se os participantes do mercado perceberem ameaça aos seus modelos de negócio.
Eficiência das soluções existentes
* Um estudo mostrou que apenas 30 % das publicações no Instagram, LinkedIn, Pinterest, TikTok e YouTube são corretamente marcadas como criadas por IA.
* Implantar rapidamente ferramentas de verificação é arriscado: falhas podem minar a confiança dos usuários.
Mecanismos de verificação complexos são preferíveis. Por exemplo, se uma imagem confiável sofrer pequenas edições por IA, a plataforma pode classificá-la erroneamente como totalmente gerada. Uma abordagem integrada reduz a probabilidade de falsos positivos.
Conclusão
A Microsoft oferece um conjunto estruturado de padrões para detectar manipulação digital do conteúdo. Essas ferramentas visam aumentar a transparência e confiança nos materiais online, mas seu sucesso depende da adoção pela indústria e da confiabilidade das verificações integradas.
Comentários (0)
Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.
Faça login para comentar