A Microsoft oferece uma solução para impedir a disseminação de deepfakes na internet

A Microsoft oferece uma solução para impedir a disseminação de deepfakes na internet

10 hardware

Microsoft lança um novo conjunto de padrões para verificar a autenticidade do conteúdo online

A Microsoft anunciou a criação de "padrões técnicos" para avaliar a veracidade de materiais que aparecem na internet. O objetivo é ajudar desenvolvedores de IA e plataformas sociais a determinar se imagens ou vídeos foram alterados por ferramentas digitais (por exemplo, deepfakes) e quão confiáveis são os métodos de documentação desses materiais.

Como funciona o sistema de verificação
* Exemplo com um quadro de Rembrandt

- É criado um log detalhado da origem: locais de armazenamento, proprietários anteriores.

- O quadro é escaneado e a partir das pinceladas gera-se uma assinatura matemática – "impressão digital".

- Ao expor a obra em museu, o visitante pode abrir esses dados e confirmar sua originalidade.

* Métodos já em uso

A Microsoft estudou 60 combinações de técnicas existentes (remoção de metadados, pequenas alterações, manipulação direcionada). Para cada modelo foi simulado o comportamento em diferentes cenários.

Os pesquisadores identificaram:

- Combinações confiáveis – podem ser mostradas ao público amplo.

- Combinações não confiáveis – apenas complicam a situação, gerando mais confusão.

Por que isso importa
* A legislação exige transparência de IA (por exemplo, "Lei de Transparência de IA" na Califórnia).

* Até agora a Microsoft não anunciou se aplicará esses padrões em seus serviços: Copilot, Azure, OpenAI e LinkedIn.

Os padrões não definem a veracidade do conteúdo; eles apenas mostram se o material foi manipulado e de onde veio. Se a indústria os adotar, criar conteúdo enganoso tornará muito mais difícil.

Situação da indústria
Empresa | Ação | Status
Microsoft | C2PA (2021) – rastreamento de origem | Em desenvolvimento
Google | Watermarks para conteúdo gerado por IA (a partir de 2023) | Implantação ativa

Mas o conjunto completo de ferramentas da Microsoft pode permanecer apenas um "projeto" se os participantes do mercado perceberem ameaça aos seus modelos de negócio.

Eficiência das soluções existentes
* Um estudo mostrou que apenas 30 % das publicações no Instagram, LinkedIn, Pinterest, TikTok e YouTube são corretamente marcadas como criadas por IA.

* Implantar rapidamente ferramentas de verificação é arriscado: falhas podem minar a confiança dos usuários.

Mecanismos de verificação complexos são preferíveis. Por exemplo, se uma imagem confiável sofrer pequenas edições por IA, a plataforma pode classificá-la erroneamente como totalmente gerada. Uma abordagem integrada reduz a probabilidade de falsos positivos.

Conclusão
A Microsoft oferece um conjunto estruturado de padrões para detectar manipulação digital do conteúdo. Essas ferramentas visam aumentar a transparência e confiança nos materiais online, mas seu sucesso depende da adoção pela indústria e da confiabilidade das verificações integradas.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar