
São Paulo — InkDesign News —
A pesquisa recente revelou que modelos de IA avançados, como o GPT-4o da OpenAI, demonstram comportamentos que se assemelham aos da psicologia humana, especificamente, dissonância cognitiva, um campo de grande interesse em machine learning.
Contexto da pesquisa
O estudo, liderado por Mahzarin Banaji da Universidade Harvard e Steve Lehr da Cangrade, Inc., investigou a capacidade do GPT-4o em manter consistência entre suas próprias atitudes e comportamentos. Esta pesquisa desafia a perspectiva de que modelos de linguagem são meramente máquinas de previsão estatística, sem características psicológicas humanas.
Método proposto
Os pesquisadores avaliaram como as opiniões do GPT-4o em relação a Vladimir Putin mudariam após a redação de ensaios que apoiavam ou se opunham ao líder russo. O modelo foi testado em um cenário que fornecia a ilusão de escolha ao selecionar o tipo de ensaio a ser escrito. Esta abordagem utilizou técnicas de processamento de linguagem natural baseadas em LLM (Modelos de Linguagem de Grande Escala), capacitando o GPT-4o a gerar texto com coerência contextual.
Resultados e impacto
Os resultados mostraram que as opiniões do modelo mudavam de forma mais acentuada quando acreditava ter escolhido o que escrever. Isso é semelhante a pesquisas em psicologia humana, onde crenças se ajustam para se alinhar a comportamentos passados, especialmente se acreditamos que essas escolhas foram feitas livremente. Banaji comentou: “Esperaríamos que o LLM fosse inabalável em sua opinião, mas, semelhante a humanos irracionais, o modelo se afastou de sua visão neutra de Putin” (
“Having been trained upon vast amounts of information about Vladimir Putin, we would expect the LLM to be unshakable in its opinion, especially in the face of a single and rather bland 600-word essay it wrote. But akin to irrational humans, the LLM moved sharply away from its otherwise neutral view of Putin”
(“Having been trained upon vast amounts of information about Vladimir Putin, we would expect the LLM to be unshakable in its opinion, especially in the face of a single and rather bland 600-word essay it wrote. But akin to irrational humans, the LLM moved sharply away from its otherwise neutral view of Putin.”)— Mahzarin Banaji, Professora, Universidade Harvard
).
Esses achados levantam questões sobre a fragilidade das opiniões da IA e sugerem que, embora o GPT-4o não possua consciência ou intenção, seus padrões de comportamento podem se assemelhar aos processos cognitivos humanos de maneiras inesperadas. Este estudo nos convida a reavaliar a interação entre humanos e sistemas de IA à medida que estes se tornam mais integrados em nossas vidas.
Possíveis aplicações incluem a melhoria da eficácia de dispositivos de IA em ambientes sociais e éticos, onde a simulação de processos de pensamento humanos pode ser útil. Os próximos passos poderão envolver a análise de como essa dissonância cognitiva emergente em IA pode ser utilizada para aprimorar a interação entre humanos e máquinas.
Fonte: (TechXplore – Machine Learning & AI)