- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

Modelo de deep learning ensina AI a admitir incertezas

- Publicidade -
- Publicidade -

São Paulo — InkDesign News —

Pesquisadores da Universidade Johns Hopkins desenvolveram um método inovador em machine learning, permitindo que modelos de inteligência artificial possam admitir incertezas ao responder perguntas, melhorando a precisão e segurança em aplicações críticas.

Contexto da pesquisa

A incapacidade de sistemas de IA de reconhecer sua própria incerteza pode levar a respostas incorretas, especialmente em áreas de alto risco como saúde, direito e engenharia. Esse desafio motivou uma equipe de cientistas da computação da Johns Hopkins a investigar como períodos de reflexão mais longos poderiam ajudar modelos a determinar a certeza de suas respostas.

Método proposto

O estudo focou em modelos de linguagem de larga escala, onde a equipe analisou a relação entre os comprimentos das cadeias de raciocínio geradas e a precisão das respostas em problemas matemáticos complicados. Os modelos foram programados para responder apenas quando sua confiança ultrapassasse um limite estipulado, permitindo respostas como “não sei” quando a incerteza era alta.

“Tudo começou quando percebemos que modelos de linguagem de ponta gastam mais tempo pensando para resolver problemas mais difíceis. Então nos perguntamos: esse tempo adicional pode ajudar esses modelos a determinar se um problema foi solucionado corretamente?”
(“It all started when we saw that cutting-edge large language models spend more time thinking to solve harder problems. So we wondered—can this additional thinking time also help these models determine whether or not a problem has been solved correctly?”)

— William Jurayj, Ph.D. Student, Johns Hopkins University

Resultados e impacto

Os pesquisadores descobriram que um maior tempo de reflexão geralmente melhora a precisão e a confiança dos modelos. Porém, constatou-se que sem penalidades para respostas incorretas, a precisão poderia diminuir se os modelos fossem obrigados a ter uma alta confiança. Os pesquisadores propuseram três “configurações de apostas” para penalizar erros: sem penalização, penalizações equilibradas e penalizações severas em respostas erradas.

Com configurações mais estritas, a equipe concluiu que os modelos deveriam recusar responder se a confiança não fosse adequada, o que, em ambientes críticos, pode ser preferível a fornecer uma resposta errada após um longo tempo de espera.

“Um estudante pode ficar ligeiramente irritado em esperar 10 minutos apenas para descobrir que precisa resolver um problema de matemática. Mas em ambientes críticos, isso é infinitamente preferível a esperar cinco minutos por um resposta que parece correta, mas não é.”
(“A student might be mildly annoyed to wait 10 minutes only to find out that she needs to solve a math problem herself because the AI model is unsure. But in high-stakes environments, this is infinitely preferable to waiting five minutes for an answer that looks correct but is not.”)

— William Jurayj, Ph.D. Student, Johns Hopkins University

Os pesquisadores estão agora incentivando a comunidade de IA a divulgar o desempenho de seus modelos em cenários que envolvem custos reais para respostas erradas, promovendo assim desenvolvimentos em quantificação de incerteza.

Fonte: TechXplore – Machine Learning & AI

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!