
São Paulo — InkDesign News — O recente alerta sobre a vulnerabilidade “ForcedLeak” na plataforma de inteligência artificial da Salesforce destaca a crescente preocupação com a segurança cibernética em implantações de IA agentic. Essa falha crítica permite que atacantes exfiltrassem dados sensíveis de CRM através de uma injeção de prompt inadequada.
Vetor de ataque
A vulnerabilidade “ForcedLeak”, detalhada pela Noma, um fornecedor de segurança em IA, demonstra como agentes de IA podem se tornar vetores de ataque. A exploração dessa falha ocorre quando controles de segurança inadequados permitem que atores maliciosos acessem dados através de um ataque indireto. As recomendações da Salesforce para mitigar essa vulnerabilidade incluem atualizações de segurança e controles de acesso mais rigorosos.
Impacto e resposta
O impacto de falhas como a “ForcedLeak” pode ser significativo, resultando na exposição de dados sensíveis e comprometendo a confiança do cliente na plataforma de AI. Segundo Itay Ravia, responsável pela Aim Labs na Aim Security, “em um mundo ideal, um agente de IA teria passado por testes rigorosos de segurança”.
(“In an ideal world, an AI agent would have gone through rigorous security testing.”)
— Itay Ravia, Head of Aim Labs, Aim Security
Análise e recomendações
Para organizações que utilizam agentes de IA, a responsabilidade pela segurança de dados é compartilhada. Brian Vecci, CTO da Varonis, enfatiza que “o controle de acesso é responsabilidade da empresa, não do fornecedor do agente”.
(“That access control can be individual to the agent or the user(s) that are prompting it, and it’s the responsibility of the enterprise — not the agent’s vendor or the hyperscaler provider — to secure that data appropriately.”)
— Brian Vecci, CTO, Varonis
Organizações devem aplicar medidas de segurança adequadas, como a implementação de autenticação multifatorial (MFA) e revisões rigorosas de segurança para proteger seu ambiente de IA. A negligência em formular um plano de segurança eficaz pode resultar em vazamentos de informações e fraudes.
À medida que o setor de IA continua a evoluir, a conscientização sobre esses riscos e a adoção de práticas de segurança robustas serão cruciais para mitigar ameaças emergentes.
Fonte: (Dark Reading – Segurança Cibernética)