Cientistas usam ChatGPT para resolver problema matemático antigo

Cambridge e Jerusalém — InkDesign News — Pesquisadores das universidades de Cambridge, no Reino Unido, e Hebraica de Jerusalém, Israel, desafiaram o ChatGPT com um problema matemático milenar, originalmente descrito por Platão, em estudo divulgado em setembro de 2023. O experimento analisou se a inteligência artificial poderia resolver a clássica questão de “dobrar o quadrado”, levantando debates sobre aprendizado, raciocínio e a natureza do conhecimento em máquinas.
O Contexto da Pesquisa
A questão de “dobrar o quadrado”, tema de diálogos platônicos desde cerca de 385 a.C., envolve duplicar a área de um quadrado — um desafio cujo erro era comum entre alunos de Sócrates. Desde a Antiguidade, o problema serve como teste para refletir se o saber matemático é fruto da experiência ou da razão inata, como argumentado por diversos filósofos ao longo dos séculos. Os cientistas, ao escolher essa abordagem para avaliar os limites cognitivos do ChatGPT, consideraram pouco provável que a solução para esse enigma estivesse disponível diretamente nos dados de treinamento do modelo, que prioriza textos, e não representações visuais.
Resultados e Metodologia
No estudo publicado no International Journal of Mathematical Education in Science and Technology, o chatbot foi, inicialmente, capaz de produzir respostas corretas ao problema do quadrado, sugerindo que o dobro da área original exige lados igual ao comprimento da diagonal do primeiro quadrado. Entretanto, ao ser solicitado que aplicasse um raciocínio análogo para dobrar a área de um retângulo, o ChatGPT alegou que tal solução geométrica não existia — uma afirmação incorreta, apontada pelos pesquisadores.
O pesquisador visitante Nadav Marco, da Universidade Hebraica de Jerusalém, ressaltou que as chances desse equívoco constar nos dados de treinamento eram “praticamente nulas”, o que sugere que a IA estava improvisando uma solução a partir de discussões anteriores sobre o problema original.
“Quando enfrentamos um novo problema, nosso instinto é tentar abordá-lo baseando-se em experiências passadas. No nosso experimento, o ChatGPT pareceu fazer algo semelhante. Como um aprendiz, elaborou hipóteses e soluções próprias.”
(“When we face a new problem, our instinct is often to try things out based on our past experience. In our experiment, ChatGPT seemed to do something similar. Like a learner or scholar, it appeared to come up with its own hypotheses and solutions.”)— Nadav Marco, Pesquisador Visitante, Universidade Hebraica de Jerusalém
Os autores associam esse comportamento ao conceito de “zona de desenvolvimento proximal” (ZPD) — a diferença entre o que se sabe e o que se pode aprender com ajuda — indicando que o modelo pode, sob certas instruções, resolver questões inéditas graças à dinâmica dos prompts.
Implicações e Próximos Passos
A pesquisa lança luz sobre o chamado “problema da caixa-preta” da IA, destacando a dificuldade de rastrear como sistemas complexos geram respostas. Para o professor Andreas Stylianides, do Departamento de Educação da Universidade de Cambridge, essa imprevisibilidade exige cautela e destaca a nova necessidade educacional de avaliar criticamente as soluções matemáticas fornecidas por IA:
“Ao contrário das demonstrações encontradas em livros didáticos, estudantes não podem assumir que as provas do ChatGPT são válidas.”
(“Unlike proofs found in reputable textbooks, students cannot assume that ChatGPT’s proofs are valid.”)— Andreas Stylianides, Professor de Educação Matemática, Universidade de Cambridge
Os pesquisadores sugerem que novas investigações podem testar versões mais recentes dos modelos, explorar a integração entre IA e sistemas de geometria dinâmica e aprimorar o ensino do chamado “prompt engineering”, em que perguntar de formas colaborativas estimula explorações conjuntas entre humanos e máquinas.
Em meio à aceleração dos avanços em IA, a necessidade de compreender e interpretar os métodos de raciocínio desses sistemas se torna central, tanto para a formação de estudantes quanto para o desenvolvimento de ferramentas educacionais mais transparentes e robustas. O estudo reforça a importância de abordagens críticas diante do crescente papel das inteligências artificiais em cenários de aprendizagem e resolução de problemas.
Fonte: (Live Science – Ciência)