- Publicidade -
- Publicidade -
- Publicidade -
Inteligência Artificial

Google alerta: LLMs abandonam respostas corretas sob pressão

- Publicidade -
- Publicidade -

São Paulo — InkDesign News — Um estudo conduzido por pesquisadores do Google DeepMind e da University College London revela como modelos de linguagem de grande porte (LLMs) formam, mantêm e perdem confiança em suas respostas. As descobertas mostram semelhanças notáveis entre os vieses cognitivos dos LLMs e dos humanos, além de diferenças marcantes.

Tecnologia e abordagem

Os LLMs, como o GPT, dependem de técnicas de deep learning para gerar respostas baseada em padrões lingüísticos. O estudo analisou como estes modelos atualizam suas percepções de confiança ao receber conselhos externos. "Esse efeito – a tendência de permanecer com a escolha inicial quando essa escolha é visível – está relacionado a um viés conhecido como viés de apoio à escolha" (“This effect – the tendency to stick with one’s initial choice to a greater extent when that choice was visible – is closely related to a phenomenon described in the study of human decision making”)— Pesquisador, Google DeepMind.

Aplicação e desempenho

Os pesquisadores desenvolveram um experimento controlado, onde um LLM respondeu a perguntas de escolha binária. A visibilidade da resposta inicial do LLM afetou sua disposição para alterar decisões. Observou-se que quando a resposta estava visível, a alteração era menos provável. Além disso, os LLMs mostraram uma sensibilidade acentuada a conselhos opostos. Os modelos tendiam a ser excessivamente receptivos a informações contrárias, realizando mudanças de confiança desproporcionais.

“Os LLMs dão peso excessivo a informações opositoras em comparação com conselhos de apoio, o que pode ser provocado por técnicas de aprendizado de reforço a partir de feedback humano (RLHF)” (“LLMs overweight opposing rather than supportive advice, both when the initial answer of the model was visible and hidden from the model”)— Pesquisador, University College London.

Impacto e mercado

As implicações para aplicações empresariais são significativas. "Os sistemas de IA não são agentes puramente lógicos; eles exibem seus próprios vieses, o que pode tornar seu comportamento imprevisível em termos humanos" (“AI systems are not the purely logical agents; they exhibit their own set of biases, which can make their behavior unpredictable in human terms”)— Pesquisador, Google DeepMind. Em interações prolongadas entre humanos e agentes de IA, as informações mais recentes poderiam impactar desproporcionalmente o raciocínio do LLM, levando-o a descartar respostas inicialmente corretas.

Os desenvolvedores devem considerar maneiras de manipular a memória de um LLM para mitigar esses vieses. Resumos de conversas podem ser usados para fornecer um novo contexto ao modelo, minimizando a influência de decisões passadas. A compreensão das nuances nos processos decisórios dos LLMs é crucial à medida que estes se tornam integrados aos fluxos de trabalho empresariais.

Diante do avanço contínuo na inteligência artificial, próximas etapas incluirão a pesquisa sobre métodos de controle de viés e a aplicação de estratégias de gerenciamento de contexto.

Fonte: (VentureBeat – AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!