- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Redes neurais não conseguem prevenir deepfakes, diz estudo

- Publicidade -
- Publicidade -

A nova ameaça às marcas d’água na era da IA

Machine learning e inteligência artificial (IA) estão revolucionando diversos campos, mas pesquisas recentes indicam que as soluções atuais para proteção de conteúdo gerado por IA, como marcas d’água, são suscetíveis a ataques.

Contexto da pesquisa

Pesquisadores do Universidade de Waterloo investigaram a vulnerabilidade das marcas d’água em imagens geradas por IA, revelando que esses sistemas de segurança podem ser facilmente comprometidos. Com a evolução de deepfakes e outras tecnologias, a necessidade de identificação de conteúdo verdadeiro torna-se cada vez mais urgente.

Método proposto

A equipe desenvolveu uma ferramenta chamada UnMarker, que utiliza ataques estatísticos para remover marcas d’água de imagens sem precisar conhecer o algoritmo de marcação. O princípio por trás do UnMarker é explorar anomalias na frequência de pixels, distorcendo essas frequências e tornando a imagem irreconhecível para a ferramenta de reconhecimento de marcas, mas mantendo-a visualmente intacta.

Resultados e impacto

Em testes realizados, o método demonstrou eficácia superior a 50% ao aplicar-se em modelos de IA renomados, como o SynthID da Google e o Stable Signature da Meta, sem qualquer informação prévia sobre os métodos de marcação utilizados. Isso levanta sérias preocupações sobre a confiabilidade das soluções de watermarking atualmente oferecidas pelas empresas de tecnologia.

“Se conseguimos descobrir isso, também conseguirão atores maliciosos. A marcação está sendo promovida como a solução perfeita, mas mostramos que essa tecnologia é quebrável.”
(“If we can figure this out, so can malicious actors. Watermarking is being promoted as this perfect solution, but we’ve shown that this technology is breakable.”)

— Andre Kassis, Candidato a Ph.D., Universidade de Waterloo

Com a crescente presença de deepfakes e a dificuldade em distinguir entre conteúdos reais e gerados artificialmente, a pesquisa destaca a fragilidade das atuais abordagens de segurança. Especialistas alertam que a superexposição a conteúdos manipulados pode resultar em consequências sociais e legais significativas.

As implicações da pesquisa são vastas, sugerindo que novos métodos de identificação e autenticação de conteúdos precisam ser desenvolvidos para enfrentar esses desafios emergentes na era digital.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!