
São Paulo — InkDesign News — Cybersecurity researchers da ReversingLabs descobriram pacotes maliciosos na Python Package Index (PyPI) que exploram vulnerabilidades em modelos de inteligência artificial (IA) e aprendizado de máquina (ML), especificamente visando usuários dos Alibaba AI Labs. Os atacantes utilizaram arquivos Pickle para ocultar malware, provocando preocupações com a integridade da cadeia de suprimentos de software.
Incidente e vulnerabilidade
Os pacotes maliciosos, identificados como aliyun-ai-labs-snippets-sdk, ai-labs-snippets-sdk e aliyun-ai-labs-sdk, não possuíam funcionalidade real de IA, mas, ao serem instalados, secretamente implantavam um infostealer projetado para coletar informações. Esse código malicioso estava oculto dentro de um modelo PyTorch, que é um formato comum utilizado em ML.
“O pacote ai-labs-snippets-sdk representou a maioria dos downloads, devido ao seu tempo de disponibilidade, superior ao dos outros pacotes.”
(“The ai-labs-snippets-sdk package accounted for the majority of downloads, due to it being available for download longer than the other two packages.”)— Karlo Zanki, Engenheiro de Reversão, ReversingLabs
Impacto e resposta
Os pacotes maliciosos estiveram disponíveis no PyPI por menos de 24 horas, mas foram baixados cerca de 1.600 vezes. O malware tinha como alvo, principalmente, desenvolvedores na China, já que procurava informações do aplicativo AliMeeting e arquivos .gitconfig, que frequentemente armazenam dados sensíveis. Este incidente destaca a necessidade urgente de mitigações na cadeia de suprimentos de software, uma vez que os modelos ML estão se tornando alvos comuns.
Mitigações recomendadas
Recomenda-se que desenvolvedores e organizações adotem práticas rigorosas de segurança, como a validação de pacotes de software de fontes confiáveis e a implementação de ferramentas de segurança que possam identificar e neutralizar códigos maliciosos em arquivos Pickle. Atualizações e patches para ferramentas que manipulam modelos ML devem ser priorizados, e um treinamento em conscientização de segurança pode mitigar riscos associados à engenharia social e phishing.
“Os arquivos Pickle podem ser utilizados para injetar código prejudicial, como já demonstrado em campanhas anteriores.”
(“Pickle files could be used to inject harmful code.”)— Dhaval Shah, Diretor de Gestão de Produtos, ReversingLabs
Este incidente ilustra riscos persistentes na segurança de software, exigindo vigilância contínua e inovação em medidas de defesa contra técnicas de ataque emergentes.
Fonte: (Hack Read – Segurança Cibernética)