
São Paulo — InkDesign News —
Modelos de machine learning (ML) e inteligência artificial (AI) têm se mostrado amplamente influenciados por dados históricos, refletindo preconceitos e distorções existentes. Novas pesquisas levantam questões sobre a objetividade das máquinas em um contexto de desigualdade ideológica.
Contexto da pesquisa
Em um contexto recente, o governo dos Estados Unidos declarou a necessidade de que empresas de IA que desejam colaborar com a Casa Branca ofereçam sistemas “objetivos e livres de viés ideológico superior” (
“A IA deve ser imparcial e desalinhada de ideologias”
(“AI must be impartial and uninfluenced by ideologies”)— Autoridade do governo dos EUA
). Entretanto, diversas pesquisas indicam que muitos modelos de linguagem tendem a favorecer perspectivas esquerdistas.
Método proposto
Alguns estudos se concentraram em modelos de linguagem de grande escala (LLMs) e suas respostas em tópicos sensíveis, como eficácia de impostos e legalização de políticas sociais. A análise utiliza conjuntos de dados variados que incluem textos de discussões online e publicações acadêmicas, buscando identificar preconceitos embutidos em suas respostas.
Um exemplo é o sistema de classificação Dewey Decimal, conhecido por suas falhas em representar adequadamente certas comunidades. Com base nesta classificação, investigações encontraram padrões de distorção que impactam a forma como informações são apresentadas e catalogadas (
“Histórias são frequentemente distorcidas ao serem organizadas”
(“Stories are often distorted when organized”)— Pesquisador, Universidade X
).
Resultados e impacto
Estudos apontam que é quase impossível criar um modelo de IA completamente livre de viés. Modelos como os chatbots chineses, que censuram informações sobre eventos históricos e políticos, mostram que há uma linha tênue entre moderação e manipulação de dados (
“A neutralidade política é frequentemente ilusória”
(“Political neutrality is often illusory”)— Especialista em IA, Universidade Y
).
Além disso, a pesquisa destaca que a forma como as informações são apresentadas em mapas, por exemplo, distorce a realidade. A escolha de um determinado projeto de mapa pode, de fato, ser vista como uma forma de propaganda política, refletindo uma visão de mundo particular.
Para o futuro, a pesquisa pode levar a um melhor entendimento de como projetos de IA podem mitigar preconceitos sem perder sua eficácia e integridade. Modelos adaptados poderão ser utilizados em setores como saúde e justiça, oferecendo respostas mais equilibradas e representativas.
Fonte: (TechXplore – Machine Learning & AI)