
Machine Learning em Cibersegurança: O Caso da Deepfake Norte-Coreana
São Paulo — InkDesign News — Um recente incidente de segurança cibernética revelou o uso de técnicas de machine learning para fraudes de identidade. Especialistas descobriram que um grupo de hackers vinculado à Coreia do Norte utilizou ferramentas de inteligência artificial para forjar documentos de identificação militar sul-coreanos.
Contexto da pesquisa
O grupo, denominado Kimsuky, é conhecido por sua operação de espionagem digital. Pesquisadores da Genians, uma empresa de cibersegurança sul-coreana, exploren como técnicas de IA podem potencializar ataques de phishing. A utilização da inteligência artificial para criar uma deepfake convincente representa uma nova fronteira nas técnicas de hacking, onde a confiabilidade da informação se torna um desafio crítico.
Método proposto
Os atacantes aplicaram um modelo generativo para elaborar documentos fakes, valendo-se de ferramentas de processamento de linguagem natural como o ChatGPT para iniciar o processo. Quando solicitado a criar um documento de identificação, o ChatGPT inicialmente se negou, mas a modificação do prompt permitiu que os hackers contornassem essa restrição.
“As ferramentas de IA podem ser utilizadas para planejamento de cenários de ataque, desenvolvimento de malware e até mesmo para se passar por recrutadores de emprego”
(“Attackers can leverage emerging AI during the hacking process, including attack scenario planning, malware development, building their tools and to impersonate job recruiters.”)— Mun Chong-hyun, Diretor, Genians
Resultados e impacto
O ataque focou em jornalistas e ativistas dos direitos humanos na Coreia do Sul, utilizando e-mails que imitavam endereços militares sul-coreanos para aumentar a credibilidade. Não foi esclarecido quantas vítimas foram afetadas, mas a operação ilustra a eficácia das deepfakes na desinformação.
As métricas de desempenho deste tipo de ataque não são tradicionalmente documentadas como em modelos de machine learning, mas as consequências podem ser desastrosas em termos de segurança da informação. A ferramenta AI foi projetada para acompanhar e inovar nas táticas de cibercrime, refletindo a evolução contínua das ameaças cibernéticas modernas.
Esta abordagem sugere que hackers podem empregar machine learning não apenas na criação de fraudes, mas também na adaptação a novos desafios de segurança. As aplicações futuras dessa pesquisa incluem melhorias em detecção de fraudes e desenvolvimento de contramedidas eficazes contra ataques baseados em IA.
Fonte: (TechXplore – Machine Learning & AI)