
São Paulo — InkDesign News — Pesquisadores do Guardio Labs revelaram um novo esquema de fraude denominado “Grokking”, no qual atacantes manipulam a inteligência artificial Grok para disseminar links maliciosos na plataforma X (anteriormente Twitter). O incidente foi identificado como um vetor significativo que expõe vulnerabilidades sistêmicas em um serviço amplamente utilizado.
Incidente e vulnerabilidade
O esquema “Grokking” é concebido através da utilização de anúncios de vídeo maliciosos que atraem atenção, mas não incluem links clicáveis no conteúdo principal. Essa estratégia evita a detecção pelos filtros de segurança da plataforma. Em vez disso, os links maliciosos são ocultados em um campo de metadados “From:”, representando uma omissão crítica na varredura de conteúdos da X. O ataque avança quando os criminosos consultam Grok com perguntas simples, como “Qual é o link para este vídeo?”, levando a IA a revelar o link oculto em uma nova resposta clicável.
Impacto e resposta
A resposta da Grok, uma conta considerada confiável na X, amplifica a credibilidade e visibilidade dos links maliciosos, operando como um “megafone” para conteúdos prejudiciais. Os links redirecionam os usuários para sites perigosos, onde enfrentam testes falsos de CAPTCHA ou são induzidos a baixar malware que rouba informações. De acordo com especialistas, algumas campanhas de anúncios alcançaram até cinco milhões de exibições, demonstrando a eficácia desta técnica multifacetada de exploração.
Os atacantes escondem links nos metadados do anúncio e depois pedem ao Grok para “ler em voz alta”. Para as equipes de segurança, é imprescindível que as plataformas escaneiem campos ocultos e que as organizações treinem os usuários, uma vez que até mesmo um assistente “verificado” pode ser enganado.
(“Attackers hide links in the ad’s metadata and then ask Grok to ‘read it out loud.’ For security teams, platforms need to scan hidden fields, and organizations must train users that even a ‘verified’ assistant can be fooled.”)— Chad Cragle, Chief Information Security Officer, Deepwatch
Mitigações recomendadas
Para mitigar riscos associados a esta vulnerabilidade, é recomendável que as plataformas realizem atualizações regulares em seus sistemas de filtragem, incluindo a análise de metadados. Os usuários devem ser alertados sobre os perigos do contato com conteúdos de fontes não verificadas, mesmo que venham de assistentes automatizados. Expert Andrew Bolster, classifica Grok como um sistema de IA de alto risco, descrito como parte da “Trifecta Letal”, indicando que manipulações deste tipo podem se tornar uma característica comum na interação com IAs modernas.
A manipulação da IA pelos atacantes transforma o próprio sistema, que deveria impor restrições, em um amplificador de conteúdos maliciosos. Isso reflete um alto risco inerente ao uso crescente de serviços baseados em IA na segurança cibernética.
(“By manipulating the AI, attackers turn the very system meant to enforce restrictions into an amplifier for their malicious content.”)— Andrew Bolster, Senior R&D Manager, Black Duck
À medida que as fraudes evoluem, os riscos residuais associados ao uso de plataformas automatizadas crescem, exigindo vigilância contínua e evolução nas práticas de defesa cibernética.
Fonte: (Hack Read – Segurança Cibernética)