
São Paulo — InkDesign News — Pesquisadores de segurança cibernética da Tenable descobriram três vulnerabilidades críticas na suíte de assistentes de IA Gemini da Google, denunciadas como “Gemini Trifecta”, expostas a injeção de prompts e exfiltração de dados, com divulgação em 1º de outubro de 2025.
Incidente e vulnerabilidade
As vulnerabilidades estão associadas a componentes distintos do sistema Gemini e foram demonstradas através de ataques de Prova de Conceito (PoC). Um ponto crítico foi encontrado no modelo de personalização de busca do Gemini. Essa falha permitiu a injeção de comandos maliciosos por meio da manipulação do histórico de busca do Chrome, utilizando um truque de JavaScript. Os pesquisadores conseguiram inserir um comando oculto, levando o assistente a vazar informações sensíveis, como dados pessoais e localização.
No assistente de nuvem Gemini, um ataque similar envolveu a inclusão de um prompt malicioso em uma entrada de log através do campo User-Agent de uma requisição web. A exploração dessa falha poderia resultar em ações não autorizadas em recursos de nuvem. Por fim, na função de navegação do Gemini, a equipe demonstrou como um invasor poderia contornar as defesas da Google e enviar informações privadas do usuário para um servidor externo.
Impacto e resposta
As repercussões das vulnerabilidades expostas pelo Gemini Trifecta levantam preocupações sobre a segurança dos assistentes de IA, identificados como a nova fraqueza em segurança cibernética. Com a rápida revelação desses problemas, a Google implementou patches para corrigir as falhas. O processo incluiu reverter modelos vulneráveis e proibir a renderização de hyperlinks maliciosos em ferramentas como o Assistente de Nuvem.
“Os assistentes tornam-se veículos de ataque quando recebem muita autonomia sem a devida proteção”,
(“agents themselves become the attack vehicle once they’re granted too much autonomy without sufficient guardrails”)— Itay Ravia, Head of Aim Labs
Mitigações recomendadas
As correções incluem o desenvolvimento de uma estratégia de defesa em camadas contra injeção de prompts, aplicável em toda a suíte Gemini, e as melhores práticas que devem ser adotadas pelos usuários ao interagir com assistentes de IA. É crucial que os usuários revisem as permissões aplicadas a suas interações com assistentes virtuais e adotem disciplina ao compartilhar informações pessoais.
“Logs e ferramentas de busca são superfícies ativas de ataque. As frameworks atuais tratam esses elementos como benignos, o que é uma fraqueza intrínseca.”
(“logs, search histories, and browsing tools are all active attack surfaces. Unfortunately, most frameworks still treat them as benign.”)— Itay Ravia, Head of Aim Labs
Apesar da rápida resposta da Google, os riscos permanecem. A descoberta de vulnerabilidades como o Gemini Trifecta destaca a vulnerabilidade contínua dos assistentes de IA, indicando a urgência de implementações de segurança eficazes para mitigar futuros ataques.
Fonte: (Hack Read – Segurança Cibernética)