
São Paulo — InkDesign News — A OpenAI baniu diversas contas do ChatGPT operadas por atores estatais da China e Rússia, que estavam sendo utilizadas para desenvolver malware e realizar operações de influência controversas.
Vetor de ataque
As investigações da OpenAI revelaram que os vetores de ataque incluíam a utilização de contas de ChatGPT para gerar conteúdo automatizado em redes sociais, voltado para temas sensíveis como política dos Estados Unidos e domínios estratégicos, como comunicações via satélite. Além disso, também foram identificados esforços para construir ferramentas que possibilitassem a evasão de medidas de segurança, especialmente em contextos de espionagem.
Impacto e resposta
O impacto dessas atividades foi significativo, uma vez que quatro em cada dez casos de abuso identificados começaram na China. A OpenAI relatou que muitas das contas banidas estavam envolvidas em projetos de recrutamento fraudulento em diversas línguas. Além do mais, a empresa utilizou sua própria tecnologia de IA como um “multiplicador de força” para detectar e interromper essas atividades malignas.
A OpenAI acredita na utilização da IA para proteger as pessoas, prevenindo o uso por regimes autoritários para controlar cidadãos ou ameaçar outros Estados.
(“This includes preventing the use of AI tools by authoritarian regimes to amass power and control their citizens, or to threaten or coerce other states; as well as activities such as covert influence operations (IO), child exploitation, scams, spam, and malicious cyber activity.”)— OpenAI
Análise e recomendações
As atividades detectadas não são apenas fraudes isoladas, mas refletem uma estratégia mais ampla de grupos de ameaça associados ao governo chinês, como APT5 e APT15. Para mitigar os riscos, é fundamental que as organizações implementem registros detalhados de atividades e utilizem tecnologias de inteligência artificial na identificação de padrões de comportamento suspeitos. Além disso, manter atualizações regulares sobre ameaças emergentes e treinar as equipes de segurança em práticas de defesa cibernética são essenciais.
Essas descobertas ressaltam a importância de uma vigilância constante no uso de ferramentas de IA, principalmente quanto à sua potencial utilização em práticas maliciosas. As projeções futuras indicam um aumento no monitoramento de plataformas de IA por parte de governos e empresas na luta contra a desinformação e outras ameaças cibernéticas.
Fonte: (Dark Reading – Segurança Cibernética)