- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

LLMs automatizam criação de exploits, revela estudo

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

A pesquisa recente destaca como novas abordagens de machine learning, utilizando modelos de linguagem avançados, podem automatizar a geração de exploits, oferecendo insights significativos para a segurança cibernética.

Contexto da pesquisa

Com o avanço das tecnologias computacionais, a segurança cibernética enfrenta desafios constantes, especialmente com o aumento das capacidades de hackers. O estudo publicado em “Computer Networks” explora como modelos de linguagem grande (LLMs), como ChatGPT e Llama 2, podem ser utilizados para gerar automaticamente exploits a partir de uma conversa entre essas inteligências artificiais.

Método proposto

A pesquisa, conduzida por Simon Pietro Romano e colaboradores, utilizou uma interação estritamente encenada entre os LLMs, dividindo as responsabilidades entre os modelos. Um LLM ficou encarregado de coletar informações contextuais sobre um programa vulnerável, enquanto o outro, especializado em codificação, era solicitado a criar um exploit. Os passos do processo incluíram a análise de programas vulneráveis, identificação de exploits potenciais, e planejamento de ataques, culminando na geração do código exploit.

“Nós deixamos dois LLMs interagirem para percorrer todas as etapas do processo de elaboração de um exploit válido para um programa vulnerável.”
(“We let two different LLMs interoperate in order to get through all of the steps involved in the process of crafting a valid exploit for a vulnerable program.”)

— Simon Pietro Romano, Co-Sênior Autor, Pesquisa

Resultados e impacto

Os resultados iniciais mostraram que a abordagem gerou um código totalmente funcional para um exploit que aproveita o buffer overflow, uma técnica que altera o comportamento de programas específicos. Esse achado substancial representa um passo em direção à possibilidade de testes de penetração automatizados.

“Este é um estudo preliminar, mas claramente prova a viabilidade da abordagem.”
(“This is a preliminary study, yet it clearly proves the feasibility of the approach.”)

— Simon Pietro Romano, Co-Sênior Autor, Pesquisa

As implicações dessa pesquisa levantam questões críticas sobre o uso mal-intencionado de LLMs, destacando a necessidade de desenvolvimentos em medidas de segurança cibernética. O próximo passo para os pesquisadores inclui a exploração de estratégias mais avançadas no campo com mínima supervisão humana.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!