- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

LLM iguala percepções humanas em cenas cotidianas

- Publicidade -
- Publicidade -

Uma nova pesquisa apresenta avanços em machine learning, utilizando modelos de linguagem para decifrar como o cérebro humano compreende cenas visuais, destacando ligações entre inteligência artificial e percepção humana.

Contexto da pesquisa

No estudo publicado na revista Nature Machine Intelligence, o professor associado de psicologia da Université de Montréal, Ian Charest, e sua equipe da Universidade de Minnesota, da Universidade de Osnabrück e da Freie Universität Berlin, exploraram a relação entre representações visuais humanas e modelos de linguagem.

Método proposto

A equipe utilizou modelos de linguagem (LLMs), como os que alimentam ferramentas como o ChatGPT, para criar uma “impressão digital baseada em linguagem” das descrições das cenas naturais. “Ao alimentar descrições de cenas naturais nesses LLMs, criamos uma espécie de ‘impressão digital baseada em linguagem’ do que uma cena significa”, afirma Charest.

Resultados e impacto

Os resultados mostraram que essas impressões digitais se correlacionaram estreitamente com os padrões de atividade cerebral registrados enquanto indivíduos observavam as mesmas cenas em um escâner de ressonância magnética. “Usando LLMs, conseguimos decodificar em uma frase a cena visual que a pessoa acabou de perceber”, explica Charest. Além disso, a equipe treinou redes neurais artificiais que analisavam imagens e previam essas impressões digitais dos LLMs, encontrando uma precisão maior do que muitos dos modelos de visão artificial mais avançados disponíveis atualmente.

“O que aprendemos sugere que o cérebro humano pode representar cenas visuais complexas de uma maneira surpreendentemente semelhante a como os modelos de linguagem modernos entendem os textos.”
(“What we’ve learned suggests that the human brain may represent complex visual scenes in a way that’s surprisingly similar to how modern language models understand text.”)

— Ian Charest, Professor Associado, Université de Montréal

Esses avanços têm várias implicações, incluindo a melhora de interfaces cérebro-máquina e o desenvolvimento de sistemas de IA que “veem” de maneira mais semelhante aos humanos. A pesquisa abre a possibilidade de desenvolver modelos computacionais de visão que poderiam auxiliar em decisões para veículos autônomos e, possivelmente, em próteses visuais para pessoas com deficiências significativas.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!