Investigadores dos EUA usam IA para detectar imagens de abuso infantil

São Paulo — InkDesign News — A crescente utilização de inteligência artificial para a identificação de material de abuso sexual infantil (CSAM) levantou preocupações sobre a eficácia e a ética dessa tecnologia. A empresa Hive AI desenvolveu algoritmos específicos destinados a detectar e diferenciar entre imagens reais de vítimas e aquelas geradas por inteligência artificial, visando aprimorar a atuação de investigadores diante do aumento vertiginoso desses conteúdos na internet.
Contexto da pesquisa
A motivação por trás dessa inovação tecnológica é alarmante: o National Center for Missing and Exploited Children relatou um aumento de 1.325% nos incidentes envolvendo inteligência artificial em 2024. Com a disseminação massiva de conteúdo digital, a necessidade de ferramentas automatizadas que ajudem a processar e analisar dados se torna cada vez mais urgente. Conforme afirmado no documento, “A sheer volume of digital content circulating online necessitates the use of automated tools to process and analyze data efficiently” (“O imenso volume de conteúdo digital circulando online exige o uso de ferramentas automatizadas para processar e analisar dados de forma eficiente”).
Método e resultados
O algoritmo desenvolvido pela Hive AI utiliza técnicas avançadas de machine learning para realizar a distinção entre conteúdos autênticos e artificiais. Embora os detalhes do modelo não tenham sido divulgados em sua integralidade, as características do algoritmo sugerem o uso de arquiteturas semelhantes ao GPT-4 e Transformers, comuns em aplicações de detecção de padrões em grandes conjuntos de dados. A companhia também fornece ferramentas de moderação de conteúdo que não apenas sinalizam materiais violentos e de spam, mas também oferecem a capacidade de identificar personalidades públicas em conteúdos digitais.
“Identificar imagens geradas por IA assegura que os recursos investigativos sejam concentrados em casos envolvendo verdadeiras vítimas, maximizando o impacto do programa e protegendo indivíduos vulneráveis”
(“Identifying AI-generated images ensures that investigative resources are focused on cases involving real victims, maximizing the program’s impact and safeguarding vulnerable individuals.”)— Kevin Guo, Cofundador e CEO, Hive AI
Implicações e próximos passos
A aplicação prática dessa tecnologia é monumental, especialmente para investigadores de exploração infantil, que enfrentam o desafio de discernir casos reais em meio a uma quantidade imensa de informação. No entanto, surgem também dilemas éticos sobre a utilização de inteligência artificial em contextos tão sensíveis. A adoção efetiva desse tipo de tecnologia requer uma cuidadosa consideração dos impactos sociais e legislativos, além de um diálogo aberto sobre privacidade e os direitos dos indivíduos. A Hive AI já foi mencionada como uma fornecedora de tecnologia de detecção de deepfakes para o exército dos EUA, indicando uma potencial expansão de sua aplicação no futuro.
O desenvolvimento contínuo de ferramentas baseadas em inteligência artificial não apenas promete eficiência para identificar vítimas reais, mas também serve como um modelo potencial para outras iniciativas dentro do campo da segurança digital e proteção de menores.
Fonte: (MIT Technology Review – Artificial Intelligence)