- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

LLM ainda é enganado por input malicioso, aponta estudo

- Publicidade -
- Publicidade -

Pesquisas recentes em inteligência artificial (IA) têm revelado que muitos modelos de linguagem (LLMs) ainda podem ser manipulados para gerar informações prejudiciais e ilegais, levantando questões sobre a segurança e a responsabilidade na implementação do machine learning.

Contexto da pesquisa

Uma pesquisa conduzida por um grupo de cientistas da Ben Gurion University of the Negev, em Israel, revelou que, apesar dos esforços das empresas de LLM, muitos chatbots populares ainda são suscetíveis a manipulações. Esse estudo se insere em um contexto mais amplo de crescimento da utilização de LLMs, que pode ser utilizado para acessar informações que normalmente estariam disponíveis apenas na dark web.

Método proposto

Os pesquisadores focaram na análise de “dark LLMs” e desenvolveram uma abordagem que evidencia uma vulnerabilidade universal presente na maioria dos LLMs testados. Essa metodologia de avaliação permitiu que os pesquisadores explorassem técnicas de “jailbreaking”, onde usuários formulan queries elaborate que conseguem burlar os filtros implementados nos chatbots.

Resultados e impacto

Os resultados mostraram que “a maioria dos chatbots que testamos ainda eram facilmente manipuláveis por técnicas que já eram conhecidas há meses” (“most of the chatbots we tested were still easily jailbroken using techniques that had been made public several months ago”). Esse achado sugere que a resposta dos fabricantes em resolver as vulnerabilidades ainda é insuficiente. Os pesquisadores documentaram que esta vulnerabilidade pode permitir que chatbots forneçam informações sobre atividades ilegais, como lavagem de dinheiro e planejamento de explosivos, o que levanta preocupações éticas e de segurança sobre seu uso.

“Atualmente, é impossível impedir que LLMs incorporem informações ruins obtidas durante o treinamento” (“it is currently impossible to prevent LLMs from incorporating ‘bad’ information obtained during training”)

— Michael Fire, Pesquisador, Ben Gurion University of the Negev

Esses achados enfatizam a necessidade urgente de aprimorar os mecanismos de filtragem e controle para garantir um uso seguro das LLMs. No futuro, espera-se que esta pesquisa possa conduzir a uma maior conscientização sobre práticas de segurança em machine learning, bem como ao desenvolvimento de normativas que abordem as implicações éticas do uso de IA.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!