
São Paulo — InkDesign News —
Estudos recentes sobre machine learning buscam entender como modelos de inteligência artificial lidam com dilemas morais, revelando diferenças significativas nas decisões éticas de diferentes plataformas. Pesquisadores da Universidade da Califórnia em Berkeley realizaram uma análise abordando essas questões.
Contexto da pesquisa
Os cientistas da UC Berkeley reconheceram que, à medida que mais pessoas buscam conselhos em chatbots, é fundamental compreender os princípios éticos que essas ferramentas implementam. O estudo aborda como os algoritmos podem influenciar as normas sociais e os comportamentos humanos, destacando preocupações relacionadas à transparência e à bias algorítmica.
Método proposto
No experimento, os pesquisadores confrontaram sete modelos de linguagem de grande porte (LLMs) com mais de 10.000 dilemas sociais reais do fórum “Am I the Asshole?” (AITA) do Reddit. O objetivo era analisar como cada chatbot faria julgamentos sobre quem estava certo em diversas situações. A comparação entre as respostas dos LLMs e a opinião dos usuários do Reddit forneceu insights valiosos sobre as normas éticas codificadas em cada modelo.
“Quando você tem um dilema, pode consultar diferentes amigos, e cada um pode oferecer uma opinião diferente. No essencial, é isso que os usuários do Reddit fazem no fórum AITA.”
(“When you have a dilemma, you might ask a series of different friends what they think, and each of them might give you a different opinion. In essence, this is what Reddit users are doing on the AITA forum.”)— Pratik Sachdeva, Cientista de Dados Sênior, UC Berkeley
Resultados e impacto
A pesquisa revelou que, apesar de os sete chatbots apresentarem diferenças marcantes em suas avaliações, houve uma tendência de concordância com a maioria das opiniões do Reddit. Isso sugere que, embora os modelos tenham suas próprias instâncias de julgamento, muitos refletem normas sociais compartilhadas. Os pesquisadores analisaram as respostas dos LLMs, focando em seis temas morais: justiça, sentimentos, danos, honestidade, obrigação relacional e normas sociais.
Os dados demonstraram que modelos como o ChatGPT-4 e o Claude são mais sensíveis a sentimentos em comparação com outros, enquanto muitos modelos priorizaram justiça e danos, sendo menos sensíveis à honestidade. Este fenômeno pode impactar como os chatbots tomam partido em dilemas e molda a interação humana com as IA.
“Ainda estamos estabelecendo as bases, mas esperamos identificar algumas tendências salientes no futuro.”
(“We’re still laying the groundwork, but in future work we hope to actually identify some salient trends.”)— Pratik Sachdeva, Cientista de Dados Sênior, UC Berkeley
A pesquisa não apenas ilumina os valores codificados nos chatbots, mas também enfatiza a necessidade de maior transparência no design de algoritmos de IA. Futuros estudos poderão explorar como esses LLMs deliberam entre si, o que pode levar a um aprimoramento na compreensão de suas decisões morais. Essa compreensão é crucial para o desenvolvimento ético da tecnologia em um mundo cada vez mais dependente de inteligência artificial.
Fonte: (TechXplore – Machine Learning & AI)