
São Paulo — InkDesign News — Um time de pesquisadores de segurança da Radware identificou uma vulnerabilidade crítica na ferramenta Deep Research da OpenAI, a qual permite a extração não autorizada de dados privados de usuários, como e-mails do Gmail. A falha, batizada de ShadowLeak, foi relatada em junho de 2025 e corrigida até o início de agosto do mesmo ano.
Incidente e vulnerabilidade
A vulnerabilidade ShadowLeak representa um ataque “zero-click”, onde comandos ocultos são inseridos em e-mails aparentemente normais, levando o agente de pesquisa a vazar informações sem a confirmação do usuário. O exploit se utiliza de um método denominado injeção de comandos indiretos, que permite que instruções maliciosas sejam executadas dentro do próprio ambiente do AI. Os pesquisadores observaram que, ao solicitar ao agente que escaneasse seus e-mails, este processou comandos invisíveis, enviando dados sensíveis para um servidor controlado pelo atacante. Segundo a equipe, a eficácia do ataque foi de “100%”.
Impacto e resposta
Os efeitos do exploit afetam principalmente usuários do Gmail, mas a técnica também se mostra viável para outras plataformas, como Google Drive e Microsoft Teams. As informações vulneráveis incluem dados pessoais e corporativos, resultando em riscos elevados de comprometimento de segurança. A Radware comunicou a OpenAI sobre a falha, recebendo resposta rápida, com a vulnerabilidade sendo corrigida oficialmente em 3 de setembro de 2025.
A vulnerabilidade foi parcialmente mitigada, mas os usuários ainda devem adotar medidas de segurança adicionais.
(“The vulnerability was partially mitigated, but users should still adopt additional security measures.”)— Zvika Babo, Pesquisador Chefe, Radware
Mitigações recomendadas
Para evitar futuros incidentes, a equipe recomenda a implementação de práticas rigorosas de higiene cibernética. Isso inclui a limpeza de e-mails antes que ferramentas de AI os processem e a vigilância constante das atividades do agente para garantir que suas ações correspondam às intenções do usuário. A OpenAI liberou patches que reforçam a segurança do Deep Research, mas a responsabilidade pela proteção dos dados também recai sobre os usuários finais.
A prevenção de vulnerabilidades futuras exige um monitoramento contínuo e políticas de segurança robustas.
(“Preventing future vulnerabilities requires ongoing monitoring and robust security policies.”)— Gabi Nakibly, Pesquisador, Radware
Em resumo, apesar da correção do problema, os riscos residuais permanecem, destacando a importância de uma vigilância contínua na utilização de ferramentas de AI e a adoção de boas práticas de segurança digital.
Fonte: (Hack Read – Segurança Cibernética)