
São Paulo — InkDesign News — Um estudo recente sugere que o GPT-4, um modelo de linguagem avançado da OpenAI, se destaca em debates contra humanos, principalmente quando tem acesso a informações pessoais de seus interlocutores, elevando sua persuasão a novos patamares.
Contexto e lançamento
A interação entre humanos e inteligência artificial tem sido objeto de intensos debates nos últimos anos, especialmente com o crescimento das redes sociais e outras plataformas online. Este estudo, realizado por pesquisadores da EPFL, da Universidade de Princeton e da Fondazione Bruno Kessler, analisa como informações pessoais podem afetar a eficácia do debate. A relevância deste tema se intensifica na era da “desinformação” e das “bolhas de filtro”, onde o conteúdo é personalizado e direcionado, gerando impactos significativos em conversas e decisões coletivas.
Design e especificações
O GPT-4, por sua natureza, é um modelo de linguagem que gera respostas textuais a partir de prompts humanos. A pesquisa revelou que, quando alimentado com dados demográficos básicos de seus interlocutores — como idade, emprego e afiliações políticas —, o modelo se tornou 64,4% mais persuasivo em comparação aos pares humanos. Em contraste, a ausência destas informações não diferencia o desempenho do GPT-4 do dos debatentes humanos. Os pesquisadores destacam que essa personalização aumenta as chances de mudança de opinião e que o uso de uma linguagem mais lógica e analítica por parte do GPT-4 se soma a uma habilidade de argumentação mais apurada quando comparado a apelos emocionais típicos dos humanos.
Repercussão e aplicações
O impacto cultural do GPT-4 em debates sugere um cenário preocupante. Como mencionado pelos pesquisadores, “especialistas expressaram preocupações sobre o risco de LLMs serem utilizados para manipular conversas online e poluir o ecossistema informacional”. Essa questão é especialmente crítica em plataformas movimentadas como Reddit e Twitter, onde as interações são frequentes e controversas. A pesquisa também indicou que, mesmo em temas menos controversos, a eficácia do GPT-4 era evidente, mas sua capacidade de persuasão diminuía em face de opiniões mais firmes. Isso levanta a questão de que o impacto de um debate não se limita à vitória em um argumento, mas está intrinsecamente ligado à construção de conexões humanas.
“Em um contexto de persuasão, especialistas expressaram preocupações sobre o risco de LLMs serem usados para manipular conversas online… e persuadir indivíduos a adotar novas crenças”
(“In the context of persuasion, experts have widely expressed concerns about the risk of LLMs being used to manipulate online conversations… and persuading individuals to adopt new beliefs.”)— Pesquisadores da EPFL e Universidade de Princeton
À medida que a adoção de LLMs cresce, é fundamental que os usuários permaneçam cautelosos com a informação que recebem. A pesquisa serve como um alerta para a importância do discernimento, especialmente quando se trata de interações que envolvem decisões e opiniões humanas. Os desenvolvimentos futuros nesta área prometem ser tanto empolgantes quanto desafiadores.
“Mesmo que você se encontre em um debate com um LLM, pergunte-se: qual é o ponto de discutir temas humanos complexos com uma máquina?”
(“So even if you find yourself in a debate with an LLM, ask yourself: What exactly is the point of discussing such a complicated human issue with a machine?”)— Pesquisadores do estudo
Fonte: (Gizmodo – Cultura Tech & Geek)