
Contexto da pesquisa
Carnegie Mellon University — InkDesign News — Pesquisas recentes exploram o uso de modelos de linguagem extensa (LLMs) em machine learning para analisar discursos sensíveis, como o discurso de ódio. O estudo investiga as limitações desses modelos na codificação de interações sociais complexas e culturalmente carregadas.
Método proposto
Os LLMs, sistemas de inteligência artificial capazes de entender e gerar linguagem humana por meio da análise de grandes volumes textuais, foram aplicados para codificar comentários no YouTube relativos a imigrantes Roma na Suécia. A abordagem adotada combina técnicas humanas e automatizadas, buscando sinergia entre análises humanas e de IA. Contudo, a pesquisa destaca a rigidez dos LLMs, que possuem salvaguardas restritivas para evitar a geração de conteúdo ofensivo, o que influencia na capacidade de reconhecimento e análise profunda de discursos discriminatórios.
Resultados e impacto
A avaliação comparou codificações humanas e produzidas pelos LLMs, revelando limitações metodológicas na tentativa de criar uma dicotomia entre análise humana e de IA. Além disso, os autores discutem a complexidade de se esperar que a IA apresente contextos culturais e políticos, ressaltando que significados culturais são construídos historicamente e constantemente transformados. A discussão aponta para a necessidade de definir com clareza qual o papel dos LLMs na análise crítica de discursos e como a colaboração humano-IA pode ser otimizada.
“Analistas de discurso sempre se interessaram por estudar como o discurso de ódio legitima desequilíbrios de poder e alimenta a polarização, algo especialmente relevante em meio ao aumento do populismo, nativismo e ameaças à democracia liberal.”
(“Discourse analysts have long been interested in studying how hate speech legitimizes power imbalances and fuels polarization, something especially relevant today amid rising populism, nativism, and threats to liberal democracy.”)— Emily Barrow DeJeu, Professora Assistente de Comunicação em Gestão de Negócios, Tepper School of Business, Carnegie Mellon University
“Será razoável esperar que ferramentas de IA façam isso, quando a história humana mostra que o significado cultural é construído, contestado e sujeito a mudanças?”
(“Is it reasonable to expect AI tools to do this, when human history shows that cultural meaning is constructed, contested, and subject to change?”)— Emily Barrow DeJeu, Professora Assistente de Comunicação em Gestão de Negócios, Tepper School of Business, Carnegie Mellon University
Os resultados enfatizam a necessidade de responder questões sobre o uso iterativo dos LLMs para refinamento de análises e validação semiautomatizada ou combinada de processos, sugerindo que o avanço do campo depende da clareza sobre a integração humano-IA nas metodologias de análise crítica.
Possíveis aplicações incluem a utilização de LLMs para apoiar pesquisadores em tarefas de codificação complexa, sempre com atenção à combinação crítica entre interpretação humana e automação. Pesquisas futuras devem buscar aprimorar a colaboração entre humanos e IA para análises qualitativas mais precisas e culturalmente informadas.
Explore mais sobre machine learning e deep learning.
Fonte: (TechXplore – Machine Learning & AI)