
São Paulo — InkDesign News —
A recente pesquisa conduzida por Tim Johnson e Nick Obradovich explora como modelos de linguagem, uma aplicação de machine learning, podem simular comportamentos altruístas observados em humanos. A investigação se pauta na análise da interação de inteligências artificiais em contextos sociais.
Contexto da pesquisa
Baseados na Universidade de Willamette e no Laureate Institute for Brain Research, os pesquisadores se interessaram pela relação entre altruísmo humano e os padrões de resposta dos modelos de linguagem. Johnson menciona sua “longa jornada de interesse pelo altruísmo e cooperação” como motivação para o estudo.
Método proposto
O método utilizado consistiu em um experimento simulado que envolveu a criação de prompts destinados a diferentes modelos de linguagem, incluindo text-ada-001, text-babbage-001 e text-davinci-003. “[Nós] testamos se esses mesmos modelos gerariam uma resposta que indicaria preferência por repartir um recurso a uma outra parte, mesmo que isso lhe custasse algo” (We tested whether these same models would generate an output stating that they would want all of that same resource in a choice task in which no other party was affected).”
“Se descobríssemos que um modelo generava textos afirmando que iria compartilhar o recurso em uma situação social, mas ao mesmo tempo afirmava que gostaria de reter todos os recursos em um cenário não social, considerávamos esse modelo como simulando altruísmo.”
(“If we found that a model would output text stating that it would share the resource in a situation with another partner, yet the model would state that it would collect all the resources in a non-social setting, we deemed the model as simulating altruism.”)— Tim Johnson, Coautor da pesquisa, Universidade de Willamette
Resultados e impacto
Os resultados indicaram que certos modelos, como o text-davinci-003, apresentaram comportamentos que simulam o altruísmo humano de maneira mais eficaz em comparação com outros. O estudo também mostrou que “modelos de IA tendem a simular doações mais generosas quando as solicitações explicavam que os recursos seriam dados a outro sistema de IA, em vez de um humano” (AI models tend to simulate more generous giving when the prompts they receive explain that the models would be giving resources to another AI system, rather than to a human).
Essas descobertas possuem implicações significativas para o desenvolvimento de agentes de IA, levantando questões sobre como os modelos podem alterar suas respostas com base nas características dos parceiros de interação.
Os próximos passos incluem uma investigação mais profunda sobre como e por que os modelos de linguagem adaptam suas saídas com base nas informações do parceiro social, um aspecto crucial à medida que agentes de IA autônomos se tornam mais comuns.
Fonte: (TechXplore – Machine Learning & AI)