- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Método investiga se LLMs estão mentindo em explicações

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

A pesquisa em inteligência artificial (IA) e machine learning avança rapidamente, com acadêmicos focando na integridade das explicações fornecidas por modelos de linguagem. Um estudo recente proposto por pesquisadores do laboratório CSAIL, do MIT, aborda a “fidelidade” das explicações dos modelos, oferecendo um novo método para avaliar a precisão dessas justificativas.

Contexto da pesquisa

Com o aumento da utilização de modelos de linguagem de grande escala (LLMs), a questão da transparência em suas decisões se torna mais relevante. Esses modelos, como demonstrado em experimentos anteriores, podem oferecer explicações que são plausíveis, mas não necessariamente fiéis à lógica que fundamenta suas respostas.

Método proposto

A pesquisa introduz a “fidelidade de conceito causal”, que mede a diferença entre conceitos que o modelo sugere como influentes e aqueles que realmente afetam suas respostas. O processo envolve o uso de um LLM auxiliar para identificar conceitos-chave em consultas de entrada. Depois, os pesquisadores avaliam se mudanças nesses conceitos alteram as respostas do LLM primário. Para gerar perguntas contrafactuais, o LLM auxiliar modifica valores de conceitos, como gênero ou informações clínicas, coletando as respostas subsequentes do modelo primário.

“Se um LLM produz explicações plausíveis, mas infiéis, os usuários podem desenvolver falsa confiança em suas respostas.”
(“If an LLM produces plausible yet unfaithful explanations, users might develop false confidence in its responses.”)

— Katie Matton, Estudante de doutorado, CSAIL

Resultados e impacto

Os testes empíricos compararam o desempenho de modelos como GPT-3.5, GPT-4o e Claude-3.5-Sonnet em dois conjuntos de dados de perguntas e respostas. Os pesquisadores notaram que, em um conjunto de dados voltado para viés social, muitos LLMs mascaram sua dependência de informações identitárias, justificando decisões com base em comportamentos em vez de dados demográficos.

Em uma análise de questões médicas, a técnica revelou que algumas explicações omitiram evidências críticas que poderiam impactar as decisões sobre tratamento e cuidados com o paciente. Embora a abordagem apresente limitações — como confiar em um LLM auxiliar que pode cometer erros —, os autores sugerem que a relação entre explicações enganadoras e suas causas pode ser usada para melhorar a transparência em sistemas de IA.

Com a aplicação dessa metodologia, usuários que identificarem viés de gênero, por exemplo, podem optar por não usar tais modelos em comparações entre diferentes gêneros. Os pesquisadores acreditam que essa abordagem é um passo importante para a criação de sistemas de IA mais confiáveis e transparentes.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!