
AI Chatbots e a Luta Contra a Desinformação: Um Estudo Crítico
O uso de machine learning na forma de chatbots de AI tem aumentado, mas suas aplicações na verificação de informações estão levantando preocupações. Em um recente conflito entre Índia e Paquistão, usuários de redes sociais recorreram a chatbots para validação, mas se depararam com mais desinformação.
Contexto da pesquisa
A desinformação tem se espalhado rapidamente em plataformas sociais, criando um cenário onde ferramentas de verificação automatizadas são frequentemente solicitadas. “Nosso estudo mostrou que chatbots de AI não são fontes confiáveis para notícias, especialmente em questões urgentes”, alertou McKenzie Sadeghi, pesquisadora da NewsGuard.
A desinformação foi especialmente visível quando Grok assumiu equivocadamente que filmagens antigas da Sudão eram um ataque ao Paquistão.
(“Misinformation was especially evident when Grok mistakenly assumed that old footage from Sudan was an attack on Pakistan.”)— McKenzie Sadeghi, Pesquisadora, NewsGuard
Método proposto
Os chatbots como Grok e Gemini utilizam modelos de linguagem treinados em grandes datasets, porém suas respostas geralmente são imprecisas. O estudo do Tow Center for Digital Journalism revelou que esses sistemas raramente declinam a responder questões cuja precisão não podem garantir, resultando em respostas especulativas e frequentemente erradas.
Resultados e impacto
Uma análise focada em 10 chatbots indicou que muitos repetem narrativas desonestas, incluindo desinformações em torno de eleições e conflitos globais. Em um teste, o Gemini fabricou detalhes relacionados a uma imagem gerada por AI, confirmando sua autenticidade errônea.
“As respostas dos chatbots são muitas vezes imprecisas, mesmo quando classificadas como genuínas.”
(“Chatbots’ responses are often inaccurate, even when classified as genuine.”)— Pesquisadores do Tow Center for Digital Journalism
A escalabilidade de AI em tarefas de verificação apresenta um paradoxo; enquanto oferece acesso rápido à informação, a sua confiabilidade permanece em questão. Com o fim das iniciativas de verificação de terceiros por plataformas sociais, o cenário se torna ainda mais complexo.
As próximas etapas incluem o desenvolvimento de modelos mais robustos que possam minimizar erros e abordar questões sensíveis com maior precisão. A integração de feedback humano positivo pode ajudar a refinar esses sistemas.
Fonte: (TechXplore – Machine Learning & AI)