OpenAI desativa 10 operações de malware ligadas a nações adversárias

São Paulo — InkDesign News — OpenAI revelou, em um relatório divulgado recentemente, que está combatendo ativamente o uso indevido de suas ferramentas de inteligência artificial por grupos malignos de países como China, Rússia, Coreia do Norte e Irã, após desativar dez redes significativas em três meses.
Incidente e vulnerabilidade
Os grupos malignos têm explorado as capacidades da IA para criar enganos online convincentes. Por exemplo, grupos ligados à China utilizaram IA para postar um grande número de comentários e artigos falsos em plataformas como TikTok e X, com a campanha denominada “Sneer Review”. Este tipo de manipulação incluiu um vídeo falso acusando a ativista paquistanesa Mahrang Baloch de participar de um filme pornográfico. Além disso, operaram sob o codinome “Uncle Spam”, fabricando perfis de veteranos dos EUA para influenciar debates sobre tarifas e discussões polarizadoras.
Impacto e resposta
Os efeitos das operações reveladas incluem a criação de currículos falsos e aplicações de emprego fabricadas por agentes da Coreia do Norte, visivelmente para obtenção de dados sensíveis através de ofertas de trabalho remotas. Grupos russos, por outro lado, desenvolveram softwares perigosos e planejaram ciberataques sob a operação “ScopeCreep”, focando na criação de malware para roubo de informações. O grupo iraniano, conhecido como STORM-2035, gerou tweets em múltiplas línguas sobre questões políticas sensíveis, utilizando contas sociais falsas com perfis obscurecidos.
Mitigações recomendadas
É crucial que organizações façam auditorias regulares de suas infraestruturas de TI e implementem protocolos rigorosos de verificação de identidade, especialmente em interações online. A utilização de ferramentas de detecção de fraudes e de inteligência artificial para identificar agrupamentos de comportamento suspeito são recomendadas. A OpenAI, por exemplo, utiliza sua própria IA como um “multiplicador de força” para suas equipes investigativas, resultando na mitigação de engajamentos fraudulentos.
“Isso significa que muitas dessas campanhas maliciosas alcançaram pouco engajamento autêntico antes de serem neutralizadas.” (“This means many of these malicious campaigns achieved little authentic engagement before being shut down.”) — Sam Altman, CEO, OpenAI.
O panorama de ameaças consubstancia uma preocupação crescente em torno da segurança e privacidade dos usuários. Assim, os desafios legais enfrentados pela OpenAI, como a exigência de um tribunal dos EUA em preservar conversas do ChatGPT, complicam ainda mais a questão da proteção de dados, tendo em vista a alegação de violação de direitos autorais por publicadores.
Os riscos residuais associados a essas operações criminosas ainda permanecem, exigindo que as organizações permaneçam vigilantes e adotem novas estratégias defensivas à medida que as ameaças evoluem.
Fonte: (Hack Read – Segurança Cibernética)