- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

LLM da OpenAI enfrenta riscos com solução de alucinações

- Publicidade -
- Publicidade -

Com o avanço da inteligência artificial (AI) e machine learning, novos estudos aprofundam a compreensão das falhas presentes nos sistemas, revelando as causas das chamadas “alucinações” em modelos de linguagem.

Contexto da pesquisa

Um recente estudo conduzido por pesquisadores da Universidade de Massachusetts explora a natureza das “alucinações” em modelos de linguagem. O documento descreve como grandes modelos de linguagem (LLMs) têm a tendência de gerar informações imprecisas, mesmo quando apresentadas com confiança.

Método proposto

Os pesquisadores usaram análises matemáticas para demonstrar que a falha não é apenas um efeito colateral das limitações de treinamento, mas algo intrínseco ao funcionamento dos modelos. Conforme a pesquisa, o modo como esses modelos preveem palavras com base em probabilidades resulta em uma acumulação de erros. Eles notaram que “a taxa de erro total para gerar frases é pelo menos duas vezes superior à taxa de erro que o mesmo AI teria em perguntas simples de sim/não” (“the total error rate for generating sentences is at least twice as high as the error rate the same AI would have on a simple yes/no question”) — Adam Tauman Kalai, Pesquisador, Universidade de Massachusetts.

Resultados e impacto

Os resultados indicam que a probabilidade de um modelo ‘alucinar’ aumenta proporcionalmente à raridade das informações contidas em seu conjunto de dados de treinamento. Por exemplo, verificou-se que “se 20% dos aniversários de figuras notáveis aparecem apenas uma vez nos dados de treinamento, os modelos base devem errar pelo menos 20% das consultas sobre aniversários” (“if 20% of such people’s birthdays only appear once in training data, then base models should get at least 20% of birthday queries wrong”) — Adam Tauman Kalai, Pesquisador, Universidade de Massachusetts.

Embora soluções possam ser implementadas para mitigar as alucinações, como ajustar os sistemas para considerarem sua própria confiança nas respostas, a aplicação prática pode afetar a experiência do usuário. O desafio reside no custo computacional adicional que esses esclarecimentos exigem, além da resistência dos usuários a modelos que frequentemente informam incertezas.

Futuras aplicações dessa pesquisa incluem melhorias em sistemas críticos que dependem da acuracidade das informações, como logística e diagnósticos médicos, onde a precisão é vital.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!