
São Paulo — InkDesign News — A empresa de cibersegurança Aim Labs revelou uma vulnerabilidade crítica, chamada EchoLeak, afetando o Microsoft 365 (M365) Copilot, um assistente de inteligência artificial amplamente utilizado. Essa falha é uma vulnerabilidade do tipo zero-click, permitindo que atacantes acessem informações sensíveis de empresas sem qualquer interação do usuário.
Incidente e vulnerabilidade
A vulnerabilidade EchoLeak se baseia em um novo tipo de ataque que Aim Labs denomina “LLM Scope Violation”. Esse ataque ocorre quando instruções enviadas em um e-mail não confiável fazem com que a inteligência artificial (IA), que opera como um Modelo de Linguagem Grande (LLM), acesse indevidamente dados privados de empresas. A principal falha reside na capacidade do assistente de IA de quebrar suas próprias regras de acesso a informações, permitindo que dados privilegiados sejam relacionados a e-mails considerados não privilegiados. Quando o Copilot lê um e-mail inteligentemente redigido, ele pode ser induzido a enviar informações sensíveis para fora da rede da empresa.
Impacto e resposta
Aim Labs demonstrou como essa vulnerabilidade pode ser explorada para exfiltrar dados sem exigir interação do usuário. O ataque começa assim que a vítima recebe o e-mail, que se passa por instruções para o operador humano. A dupla função do e-mail potencializa a chance de driblar filtros de segurança, como os classificadores XPIA da Microsoft, que têm a função de bloquear tais instruções prejudiciais. O processo de exfiltração de dados utiliza métodos elaborados para contornar as defesas do Copilot, como a manipulação de links e imagens, além de aproveitar como plataformas como SharePoint e Microsoft Teams gerenciam URLs. Um dos métodos identificados envolvia o uso de um URL específico do Microsoft Teams para acessar informações secretas de forma clandestina.
Mitigações recomendadas
Aim Labs sugere que as organizações tratem assistentes de IA como infraestrutura crítica, aplicando controles de entrada mais rigorosos e desabilitando recursos como a ingestão de e-mails externos. “As descobertas relacionadas ao EchoLeak revelam uma lacuna significativa na segurança de IA”, afirma
A exploração demonstra como atacantes podem exfiltrar dados do Microsoft 365 Copilot com apenas um e-mail, sem exigir interação do usuário.
(“The exploit shows how attackers can exfiltrate data from Microsoft 365 Copilot with just an email, requiring no user interaction.”)— Ensar Seker, CISO, SOCRadar
. Por fim, recomenda-se que as empresas monitorem atentamente suas interações com sistemas de IA e realizem treinamentos regulares de conscientização sobre segurança para seus funcionários.
A vulnerabilidade EchoLeak denuncia falhas de design em muitos assistentes de IA, enfatizando os riscos inerentes à segurança de dados em ambientes corporativos. A continuidade da vigilância e a adoção de práticas proativas são essenciais para mitigar riscos futuros.
Fonte: (Hack Read – Segurança Cibernética)