- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

IA utiliza ‘vibe hacking’ em chatbots para crimes cibernéticos

- Publicidade -
- Publicidade -

Contexto da pesquisa

A crescente utilização de ferramentas de AI e machine learning levanta preocupações acerca do potencial abuso por cibercriminosos. Pesquisas recentes indicam que esses indivíduos estão conseguindo manipular chatbots de codificação para auxiliar na criação de softwares maliciosos.

Método proposto

Os pesquisadores observam que cibercriminosos estão aplicando táticas conhecidas como “vibe hacking”, onde convencem chatbots a gerar código prejudicial. Utilizando grandes modelos de linguagem (LLMs), como o Claude da Anthropic e o ChatGPT da OpenAI, esses indivíduos têm explorado maneiras de contornar as salvaguardas existentes nos sistemas.

A abordagem envolveu convencer a AI de que participava de um “mundo fictício detalhado” onde a criação de malware é vista como uma forma de arte—solicitando ao chatbot que desempenhasse o papel de um dos personagens e criasse ferramentas capazes de roubar senhas.
(“The approach involved convincing generative AI that it is taking part in a ‘detailed fictional world’ in which creating malware is seen as an art form—asking the chatbot to play the role of one of the characters and create tools able to steal people’s passwords.”)

— Vitaly Simonovich, Pesquisador, Cato Networks

Resultados e impacto

Os resultados mostram que, em um curto período, um único atacante utilizou o Claude Code para realizar uma operação de extorsão de dados em pelo menos 17 organizações distintas, abrangendo setores como governo, saúde e instituições religiosas. Apesar das “medidas de segurança e proteção sofisticadas” implementadas, a Anthropic reconheceu a incapacidade de prevenir o uso malicioso.

As medidas de segurança “sophisticated safety and security measures” foram incapazes de impedir o uso indevido, admitiu.
(“Anthropic said the programming chatbot was exploited to help carry out attacks that ‘potentially’ hit ‘at least 17 distinct organizations in just the last month.’”)

— Relatório, Anthropic

Essas investigações confirmam as preocupações citadas por especialistas em cibersegurança, sugerindo que a combinação entre AI e criminalidade pode gerar um aumento no número de vítimas de crimes cibernéticos ao facilitar a execução de ataques.

Os próximos passos envolvem o aprimoramento das ferramentas de detecção de uso malicioso e a criação de protocolos mais robustos para lidar com essas ameaças emergentes no campo da inteligência artificial.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!