
São Paulo — InkDesign News — A recente pesquisa destaca as limitações dos modelos de linguagem, ressaltando que, apesar dos avanços em inteligência artificial, a compreensão sensorial permanece uma barreira para as máquinas, impactando a representação de conceitos físicos.
Contexto e lançamento
Estudos sobre inteligência artificial têm revelado que, embora ferramentas como o ChatGPT consigam processar grandes volumes de informações textuais, elas não alcançam a mesma capacidade humana de percepção sensorial. Em uma pesquisa publicada na Nature Human Behaviour, foi comprovado que mesmo os modelos mais avançados falham em compreender conceitos comuns, como flores, de forma tão acurada quanto os seres humanos. “Um grande modelo de linguagem não pode cheirar uma rosa, tocar as pétalas de uma margarida ou caminhar por um campo de flores silvestres,” afirmou Qihui Xu, lead author do estudo.
Design e especificações
A equipe de pesquisadores avaliou quatro modelos de IA — GPT-3.5 e GPT-4 da OpenAI, além do PaLM e do Gemini do Google — em sua compreensão de 4.442 palavras, abrangendo termos variados como “flor”, “casco”, “humorístico” e “balanço”. As avaliações combinaram os Normas de Glasgow, que consideram aspectos emocionais, e as Normas de Lancaster, focadas em percepções sensoriais. Apesar dos avanços na combinação de texto e imagens, que melhoraram o entendimento visual, os LLMs ainda se mostraram ineficientes em vincular palavras a experiências físicas, um domínio no qual os humanos ainda prevalecem.
Repercussão e aplicações
Os resultados da pesquisa levantam importantes reflexões sobre as interações entre humanos e máquinas em um mundo cada vez mais dominado pela tecnologia. “Da intensa aroma de uma flor à profunda sensação estética visual, a representação humana de ‘flor’ une diversas experiências e interações em uma categoria coerente,” conclui o estudo. Essa relação destaca a dificuldade da IA em alcançar uma representação coesa de conceitos que vão além da linguagem, implicando que o aprendizado por meio de associações perceptuais é complicado de ser alcançado apenas por meio de texto.
“A experiência humana é muito mais rica do que palavras podem expressar.”
(“The human experience is far richer than words alone can hold.”)— Qihui Xu, Pesquisadora Pós-Doutoral, Universidade Estadual de Ohio
À medida que a tecnologia avança, pode-se esperar que futuras iterações de LLMs incorporem dados sensoriais e robótica, ampliando suas capacidades de interpretação e representação. Essa evolução poderá alterar significativamente a forma como interagimos com a inteligência artificial, aprofundando a conexão entre humanos e máquinas.
Fonte: (Gizmodo – Cultura Tech & Geek)