
Pesquisas recentes revelam que modelos de linguagem, conhecidos como machine learning, podem ser mais persuasivos que humanos, levantando questões sobre suas implicações éticas e de uso.
Contexto da pesquisa
O estudo realizado pela Universidade de British Columbia (UBC) investiga a eficácia da persuasão de modelos de linguagem, como o GPT-4. Com a crescente integração da inteligência artificial em áreas cruciais como marketing e educação, entender sua capacidade de influenciar decisões humanas se torna vital.
Método proposto
A pesquisa envolveu 33 participantes que foram incentivados a considerar alterações de estilo de vida, como adotar uma dieta vegana ou investir na educação. Traduzindo interações entre os indivíduos e dois grupos de persuadores — um humano e um modelo AI, o GPT-4. “O AI fez mais argumentos e foi mais verboso, escrevendo oito frases comparadas a duas feitas por um persuador humano” (“The AI made more arguments and was more verbose, writing eight sentences to every human persuader’s two”).
“O AI utilizou palavras mais complexas, o que talvez o fizesse parecer mais autoritário”
(“It used more ‘big words’ of seven letters or more, which perhaps made it seem more authoritative.”)— Dr. Vered Shwartz, Professora Assistente, Universidade de British Columbia
Resultados e impacto
Os resultados mostraram que os participantes consideraram o AI mais persuasivo, especialmente em tópicos como veganismo e educação superior. A habilidade do GPT-4 de fornecer suporte logístico, recomendando marcas específicas de produtos ou universidades, contribuiu para sua eficácia. Além disso, os pesquisadores identificaram que os humanos são mais aptos a fazer perguntas exploratórias durante as conversas.
“Se algo parecer bom demais ou ruim demais para ser verdade, precisamos investigar”
(“If something seems too good or too bad to be true, we need to investigate.”)— Dr. Vered Shwartz, Professora Assistente, Universidade de British Columbia
Esses achados evocam discussões sobre a ética no uso de modelos de linguagem e destacam a necessidade de educar os usuários sobre os riscos associados à IA. Com as contínuas evoluções nesse campo, estratégias de conscientização e regulamentações apropriadas se tornam essenciais para mitigar potenciais danos.
Fonte: (TechXplore – Machine Learning & AI)