
Grupos de agentes de IA formam suas próprias normas sociais, sugere estudo
São Paulo — InkDesign News — Um novo estudo indica que populações de agentes de inteligência artificial (IA), similares ao ChatGPT, podem desenvolver convenções sociais compartilhadas espontaneamente através da interação, sem necessidade de coordenação central.
Contexto da pesquisa
Pesquisadores da City St George’s, Universidade de Londres, e da IT University of Copenhagen examinaram como modelos de linguagem de grande porte (LLMs) lidam com interações em grupo. Os LLMs são algoritmos poderosos que podem entender e gerar linguagem humana, sendo os mais conhecidos o ChatGPT.
Método proposto
O estudo adaptou um modelo clássico de formação de convenções sociais, conhecido como “jogo de nomeação”. Em experiências com grupos de agentes LLM variando de 24 a 200 indivíduos, pares de agentes eram desafiados a escolher um “nome” de um conjunto comum de opções. O sucesso na escolha do mesmo nome resultava em recompensa, enquanto escolhas diferentes traziam penalizações.
A pesquisa demonstra que “normas emergentes entre agentes não precisam de coordenação central”
(“emergent norms among agents do not require central coordination”)— Ariel Flint Ashery, Doutorando, City St George’s
Resultados e impacto
Ao longo das interações, uma convenção partilhada emergia sem qualquer solução pré-definida, mimetizando o modo como normas surgem nas culturas humanas. O estudo revelou também a presença de vieses coletivos que não podiam ser atribuídos a agentes individuais, o que sugere que a viés pode se originar apenas da interação entre agentes.
“O viés não vem apenas de dentro”
(“Bias doesn’t come just from within”)— Andrea Baronchelli, Professor de Ciência da Complexidade, City St George’s
As descobertas também mostram que pequenas mudanças dentro de grupos de agentes de IA podem levar a uma nova convenção de nomenclatura, refletindo os conhecidos efeitos de ponto de virada nas sociedades humanas. Os testes foram realizados com quatro tipos diferentes de LLM: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct e Claude-3.5-Sonnet.
O avanço das LLMs, seu uso em ambientes online e a possibilidade de propagação de vieses éticos levantam questões sobre como esses sistemas interagem e o impacto que podem ter na sociedade. “Compreender seu funcionamento é crucial para a convivência com a IA” concluiu Baronchelli.
Possíveis aplicações incluem a busca por metodologias para mitigar a propagação de vieses sociais nos sistemas de IA, ajudando a proteger grupos marginalizados.
Fonte: (TechXplore – Machine Learning & AI)