- Publicidade -
- Publicidade -
- Publicidade -
Segurança Cibernética

AI pode causar vazamento de dados: quem é o responsável?

- Publicidade -
- Publicidade -

São Paulo — InkDesign News — O recente alerta sobre a vulnerabilidade “ForcedLeak” na plataforma de inteligência artificial da Salesforce destaca a crescente preocupação com a segurança cibernética em implantações de IA agentic. Essa falha crítica permite que atacantes exfiltrassem dados sensíveis de CRM através de uma injeção de prompt inadequada.

Vetor de ataque

A vulnerabilidade “ForcedLeak”, detalhada pela Noma, um fornecedor de segurança em IA, demonstra como agentes de IA podem se tornar vetores de ataque. A exploração dessa falha ocorre quando controles de segurança inadequados permitem que atores maliciosos acessem dados através de um ataque indireto. As recomendações da Salesforce para mitigar essa vulnerabilidade incluem atualizações de segurança e controles de acesso mais rigorosos.

Impacto e resposta

O impacto de falhas como a “ForcedLeak” pode ser significativo, resultando na exposição de dados sensíveis e comprometendo a confiança do cliente na plataforma de AI. Segundo Itay Ravia, responsável pela Aim Labs na Aim Security, “em um mundo ideal, um agente de IA teria passado por testes rigorosos de segurança”.
(“In an ideal world, an AI agent would have gone through rigorous security testing.”)
— Itay Ravia, Head of Aim Labs, Aim Security

Análise e recomendações

Para organizações que utilizam agentes de IA, a responsabilidade pela segurança de dados é compartilhada. Brian Vecci, CTO da Varonis, enfatiza que “o controle de acesso é responsabilidade da empresa, não do fornecedor do agente”.
(“That access control can be individual to the agent or the user(s) that are prompting it, and it’s the responsibility of the enterprise — not the agent’s vendor or the hyperscaler provider — to secure that data appropriately.”)
— Brian Vecci, CTO, Varonis

Organizações devem aplicar medidas de segurança adequadas, como a implementação de autenticação multifatorial (MFA) e revisões rigorosas de segurança para proteger seu ambiente de IA. A negligência em formular um plano de segurança eficaz pode resultar em vazamentos de informações e fraudes.

À medida que o setor de IA continua a evoluir, a conscientização sobre esses riscos e a adoção de práticas de segurança robustas serão cruciais para mitigar ameaças emergentes.

Fonte: (Dark Reading – Segurança Cibernética)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!