- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Novo método bloqueia aprendizado de AI em seu conteúdo online

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

Uma nova técnica desenvolvida por pesquisadores australianos pode bloquear sistemas de inteligência artificial (IA) não autorizados de aprender com fotos, obras de arte e outros conteúdos baseados em imagem.

Contexto da pesquisa

O método foi criado pela CSIRO, a agência nacional de ciência da Austrália, em parceria com o Centro de Pesquisa Cooperativa em Cibersegurança (CSCRC) e a Universidade de Chicago. O objetivo é proteger artistas, organizações e usuários de redes sociais do uso não autorizado de seu conteúdo para treinar sistemas de IA ou criar deepfakes.

Método proposto

A abordagem inovadora altera sutilmente o conteúdo de forma a torná-lo ilegível para modelos de IA, mas ainda reconhecível para o olho humano. Esse método estabelece um limite sobre o que um sistema de IA pode aprender a partir do conteúdo protegido e oferece uma garantia matemática de que essa proteção se mantém estável, mesmo diante de ataques adaptativos ou tentativas de re-treinamento.

“A nossa abordagem é diferente; podemos garantir matematicamente que modelos de aprendizado de máquina não autorizados não podem aprender a partir do conteúdo além de um determinado limite. Isso é uma salvaguarda poderosa para usuários de redes sociais, criadores de conteúdo e organizações.”
(“Our approach is different; we can mathematically guarantee that unauthorized machine learning models can’t learn from the content beyond a certain threshold. That’s a powerful safeguard for social media users, content creators, and organizations.”)

— Dr. Derui Wang, Cientista, CSIRO

Resultados e impacto

Embora o método atualmente se aplique apenas a imagens, há planos para expandi-lo para texto, música e vídeos. Os resultados foram validados em um ambiente controlado de laboratório, e o código foi disponibilizado no GitHub para uso acadêmico.

A técnica pode ser aplicada automaticamente em larga escala, permitindo que plataformas de redes sociais ou sites incorporem essa camada protetora em cada imagem carregada. Essa inovação pode reduzir a proliferação de deepfakes e o roubo de propriedade intelectual.

O artigo intitulado “Provably Unlearnable Data Examples” foi apresentado no Simpósio de Segurança de Sistemas e Redes Distribuídas (NDSS 2025), onde recebeu o prêmio de artigo distinto.

Essa abordagem abre novas possibilidades para a proteção do conteúdo online e poderá ter um impacto significativo na forma como dados são utilizados por sistemas de IA no futuro.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!