
Nova York — InkDesign News — BigID anunciou o lançamento do Shadow AI Discovery, uma ferramenta que visa mitigar os riscos associados ao uso de modelos de IA não autorizados dentro das organizações, um problema crescente que compromete a segurança de dados.
Vetor de ataque
O uso não gerenciado de modelos de IA, conhecido como “Shadow AI”, cria um vetor de ataque significativo. Muitas vezes, esses modelos consomem dados sensíveis sem rastreamento adequado, facilitando vazamentos de dados e violações regulatórias. BigID aponta que as equipes de segurança enfrentam desafios para identificar onde essas IAs estão implantadas e que dados estão utilizando, o que pode levar a compromissos de propriedade intelectual e segurança de dados.
Impacto e resposta
A nova capacidade do Shadow AI Discovery permite detectar e classificar dados sensíveis utilizados por sistemas de IA, mapear quem está utilizando o quê, onde e como. Além disso, a ferramenta busca modelos não gerenciados e sinaliza dados pessoais ou regulados. Como resultado, as organizações podem adotar medidas proativas para reduzir a exposição ao risco. O software pode ser integrado a repositórios de modelos, ferramentas de desenvolvimento e plataformas de colaboração, proporcionando uma visão abrangente do uso de IA nas empresas.
“As equipes de segurança não podem apenas encontrar IA arriscada – elas precisam detê-la.”
(“Security teams can’t just find risky AI – they need to stop it.”)— Nimrod Vax, Chief Product Officer e Co-Fundador, BigID
Análise e recomendações
Para mitigar os riscos associados ao Shadow AI, é essencial que as organizações implementem políticas eficazes que restrinjam o acesso a dados sensíveis e promovam a remoção de modelos não autorizados. Com a capacidade de correlacionar modelos de IA a dados subjacentes e impor políticas de conformidade, as empresas estão mais bem equipadas para responder rapidamente aos desafios de segurança em escala.
As projeções para o setor indicam um aumento na adoção de ferramentas de gestão de IA e compliance nos próximos anos, à medida que as empresas se tornam mais conscientes dos riscos associados ao uso não regulamentado de tecnologias emergentes.
Fonte: (Dark Reading – Segurança Cibernética)