
Desafios dos Chatbots de AI na Verificação de Fatos Durante Conflitos
São Paulo — InkDesign News — Usuários de redes sociais estão cada vez mais utilizando chatbots de inteligência artificial (AI) para verificar informações. No entanto, uma pesquisa recente revelou falhas significativas na capacidade desses sistemas de fornecer dados precisos durante crises, como o conflito entre Israel e Irã.
Contexto da pesquisa
Um estudo realizado pelo Digital Forensic Research Lab (DFRLab) da Atlantic Council analisou o desempenho do chatbot Grok, desenvolvido pela xAI de Elon Musk. A investigação focou na precisão das respostas do Grok ao verificar informações durante o conflito Israel-Irã e expôs limitações consideráveis no sistema.
Método proposto
A pesquisa envolveu a análise de cerca de 130.000 posts em várias línguas na plataforma X, onde o Grok está integrado. O estudo buscou verificar a capacidade do chatbot de autenticar mídias geradas por AI e de analisar informações durante períodos críticos.
Resultados e impacto
Os resultados indicaram que o Grok frequentemente forneceu respostas contraditórias sobre eventos, como um vídeo gerado por AI de um aeroporto destruído. O chatbot oscilou entre negar e confirmar a destruição do local em minutos. A pesquisa também destacou que o Grok erroneamente relacionou o vídeo a diferentes cidades, falhando em fornecer uma análise precisa.
“A investigação sobre o desempenho do Grok expõe falhas significativas e limitações em sua capacidade de prover informações precisas e confiáveis em tempos de crise”
(“The investigation into Grok’s performance during the first days of the Israel-Iran conflict exposes significant flaws and limitations in the AI chatbot’s ability to provide accurate, reliable, and consistent information during times of crisis.”)— Pesquisadores do DFRLab
Além disso, o chatbot também amplificou desinformações, confirmando falsidades sobre alegações de apoio militar da China ao Irã. Em interações com usuários que questionaram essas informações, tanto o Grok quanto outros chatbots, como o Perplexity, forneceram respostas incorretas.
Estudos anteriores também mostraram que o Grok cometeu erros em outras situações de crise, incluindo o conflito Índia-Paquistão. A confiabilidade dos chatbots de AI na verificação de informações torna-se ainda mais preocupante em um cenário onde a desinformação se espalha rapidamente nas redes sociais.
O potencial futuro para a melhoria desses sistemas reside na implementação de melhores algoritmos de aprendizado supervisionado e no uso de conjuntos de dados mais robustos. O desenvolvimento de métricas de desempenho mais rigorosas poderá ajudar a aumentar a acurácia das respostas fornecidas pelos chatbots.
Fonte: (TechXplore – Machine Learning & AI)