- Publicidade -
- Publicidade -
- Publicidade -
Machine learning & AI

RNN pode influenciar escolha vegana ou automutilação

- Publicidade -
- Publicidade -

Pesquisas recentes revelam que modelos de linguagem, conhecidos como machine learning, podem ser mais persuasivos que humanos, levantando questões sobre suas implicações éticas e de uso.

Contexto da pesquisa

O estudo realizado pela Universidade de British Columbia (UBC) investiga a eficácia da persuasão de modelos de linguagem, como o GPT-4. Com a crescente integração da inteligência artificial em áreas cruciais como marketing e educação, entender sua capacidade de influenciar decisões humanas se torna vital.

Método proposto

A pesquisa envolveu 33 participantes que foram incentivados a considerar alterações de estilo de vida, como adotar uma dieta vegana ou investir na educação. Traduzindo interações entre os indivíduos e dois grupos de persuadores — um humano e um modelo AI, o GPT-4. “O AI fez mais argumentos e foi mais verboso, escrevendo oito frases comparadas a duas feitas por um persuador humano” (“The AI made more arguments and was more verbose, writing eight sentences to every human persuader’s two”).

“O AI utilizou palavras mais complexas, o que talvez o fizesse parecer mais autoritário”
(“It used more ‘big words’ of seven letters or more, which perhaps made it seem more authoritative.”)

— Dr. Vered Shwartz, Professora Assistente, Universidade de British Columbia

Resultados e impacto

Os resultados mostraram que os participantes consideraram o AI mais persuasivo, especialmente em tópicos como veganismo e educação superior. A habilidade do GPT-4 de fornecer suporte logístico, recomendando marcas específicas de produtos ou universidades, contribuiu para sua eficácia. Além disso, os pesquisadores identificaram que os humanos são mais aptos a fazer perguntas exploratórias durante as conversas.

“Se algo parecer bom demais ou ruim demais para ser verdade, precisamos investigar”
(“If something seems too good or too bad to be true, we need to investigate.”)

— Dr. Vered Shwartz, Professora Assistente, Universidade de British Columbia

Esses achados evocam discussões sobre a ética no uso de modelos de linguagem e destacam a necessidade de educar os usuários sobre os riscos associados à IA. Com as contínuas evoluções nesse campo, estratégias de conscientização e regulamentações apropriadas se tornam essenciais para mitigar potenciais danos.

Fonte: (TechXplore – Machine Learning & AI)

- Publicidade -
- Publicidade -

Tiago F Santiago

Tiago F. Santiago é Analista de Marketing na C2HSolutions, onde, em sua atuação fixa, combina estratégia e tecnologia para impulsionar soluções digitais. Paralelamente, dedica-se como hobby à InkDesign News, contribuindo com a criação de notícias e conteúdos jornalísticos. Apaixonado por programação, ele projeta aplicações web e desenvolve sites sob medida, apoiando-se em sua sólida expertise em infraestrutura de nuvem — dominando Amazon Web Services, Microsoft Azure e Google Cloud — para garantir que cada projeto seja escalável, seguro e de alta performance. Sua versatilidade e experiência técnica permitem-lhe transformar ideias em produtos digitais inovadores.

Artigos relacionados

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

0 Comentários
Mais votado
mais recentes mais antigos
Feedbacks embutidos
Ver todos os comentários
- Publicidade -
Botão Voltar ao topo
0
Adoraria saber sua opinião, comente.x
Fechar

Adblock detectado

Olá! Percebemos que você está usando um bloqueador de anúncios. Para manter nosso conteúdo gratuito e de qualidade, contamos com a receita de publicidade.
Por favor, adicione o InkDesign News à lista de permissões do seu adblocker e recarregue a página.
Obrigado pelo seu apoio!