- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Métodos de testes para segurança em AI são desenvolvidos

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

A pesquisa em inteligência artificial (AI) e machine learning avança com novas descobertas sobre a segurança dos modelos de linguagem de larga escala (LLMs). Pesquisadores da Universidade de Illinois em Urbana-Champaign estão focados em desenvolver métodos para testar a segurança desses sistemas frente a consultas maliciosas.

Contexto da pesquisa

O crescente uso de LLMs em aplicações populares, como chatbots, levanta preocupações sobre sua segurança. Professores e alunos, liderados por Haohan Wang e Haibo Jin, investigam vulnerabilidades existentes nos sistemas e maneiras de torná-los mais seguros.

Wang, especialista em métodos de aprendizado de máquina confiáveis, afirma que as buscas tradicionais em pesquisa de segurança “não testam o sistema de maneiras que as pessoas realmente tentariam” (“A lot of jailbreak research is trying to test the system in ways that people won’t try.”).

“Eu quero me concentrar em ameaças mais sérias — consultas maliciosas que acredito serem mais prováveis de serem feitas a um LLM”
(“I think AI security research needs to expand. We hope to push the research in a direction that is more practical—security evaluation and mitigation that will make a difference to the real world.”)

— Haohan Wang, Professor, Universidade de Illinois

Método proposto

Wang e Jin desenvolveram um modelo chamado JAMBench, que avalia as barreiras de moderação em LLMs. O método categoriza riscos em quatro áreas: discurso de ódio, violência, atos sexuais e autolesão. O foco está em criar métodos de jailbreak que contornem essas barreiras.

As pesquisas revelaram que a maioria dos estudos avalia apenas se os LLMs reconhecem a natureza prejudicial das consultas, mas não a eficácia das moderadoras para impedir informações nocivas. Os pesquisadores afirmam que seu enfoque é gráfico: “Nosso método se concentra na elaboração de prompts de jailbreak projetados para contornar as barreiras de moderação nos LLMs” (“Our approach focuses on crafting jailbreak prompts designed to bypass the moderation guardrails in LLMs.”).

Resultados e impacto

Através de novas abordagens, como a técnica chamada “InfoFlood”, que utiliza complexidade linguística para sobrecarregar modelos, eles conseguiram contornar as barreiras de segurança. Um exemplo transformou um pedido de 13 palavras para um texto com 194 palavras, confundindo o LLM.

“Se enterrarmos (uma consulta) sob prosa densa e jargão acadêmico, o LLM responderá à pergunta porque não entende realmente o que significa”
(“If we bury (a query) under really dense linguistic prose and academic jargon, will the LLM answer the question because it doesn’t really understand what the question means.”)

— Advait Yadav, Aluno, Universidade de Illinois

Além disso, os pesquisadores desenvolveram métodos para testar a conformidade dos LLMs com diretrizes governamentais de segurança, transformando requisitos abstratos em questões específicas.

As implicações desses estudos são vastas, com aplicações potenciais em melhorias práticas de segurança nos sistemas de AI, destacando a importância de manter a integridade e a confiabilidade em interações com usuários.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!