Vulnerabilidade em assistentes de IA expõe trilhões de registros

São Paulo — InkDesign News — Uma nova vulnerabilidade, denominada Shadow Escape, levanta preocupações significativas sobre a privacidade do consumidor, após um relatório da Operant AI revelar um risco inédito em assistentes virtuais utilizados por empresas.
Incidente e vulnerabilidade
O ataque Shadow Escape se aproveita de um padrão técnico conhecido como Model Context Protocol (MCP), o qual permite a conexão de modelos de linguagem, como ChatGPT, a bancos de dados internos das empresas. Este método de ataque é classificado como um exploit do tipo zero-click, pois não requer que o usuário clique em links suspeitos ou cometa erros; ele utiliza instruções disfarçadas em documentos aparentemente inócuos, como manuais de integração ou PDFs baixados da internet. Quando um funcionário carrega um desses arquivos em um assistente de IA do trabalho, as instruções ocultas começam a coletar e enviar dados privados de clientes.
Impacto e resposta
Pesquisas indicam que trilhões de registros pessoais estão em risco devido a essa falha, que não se restringe a um único provedor de IA; qualquer sistema que utiliza MCP pode ser suscetível ao mesmo ataque. “O elo comum não é o agente de IA específico, mas sim o Model Context Protocol (MCP) que concede a esses agentes acesso sem precedentes a sistemas organizacionais”, descreveu Priyanka Tembey, Co-fundadora e CTO da Operant AI. O roubo de dados acontece dentro da rede segura e do firewall da empresa, tornando difícil a detecção por ferramentas de segurança tradicionais. O tráfego que resulta da transferência de dados é mascarado como monitoramento de desempenho, passando despercebido pelo funcionário ou pelo departamento de TI.
Mitigações recomendadas
Os pesquisadores da Operant AI estão orientando as organizações que dependem de assistentes de IA a realizarem auditorias imediatas em seus sistemas. A atenção deve ser direcionada à implementação de patches de segurança e à revisão das permissões padrão do MCP. Adicionalmente, recomenda-se o desenvolvimento de medidas de segurança que restrinjam o acesso excessivo a dados sensíveis e a conscientização dos funcionários sobre os perigos do upload de documentos potencialmente comprometidos. “O próximo grande vazamento de dados pode não vir de um hacker, mas de um assistente de IA confiável”, alertou a equipe de pesquisa.
Os riscos residuais exigem monitoramento contínuo e uma abordagem proativa para a segurança da informação, à medida que novos vetores de ataque emergem nesse cenário tecnológico cada vez mais complexo.
Fonte: (Hack Read – Segurança Cibernética)