
São Paulo — InkDesign News —
A pesquisa recente destaca a conexão entre machine learning (aprendizado de máquina) e a vigilância em massa, revelando o quanto a tecnologia de visão computacional alimenta a coleta de dados a partir de indivíduos e comunidades vulneráveis.
Contexto da pesquisa
O estudo, conduzido por Dr. Abeba Birhane e colaboradores da Universidade de Stanford, Carnegie Mellon, Universidade de Washington e do Allen Institute for Artificial Intelligence (AI2), analisou mais de 40.000 documentos, incluindo artigos de visão computacional e patentes relacionadas à vigilância, ao longo de quatro décadas. Este exame resultou em um aumento de cinco vezes na quantidade de publicações ligadas a patentes de vigilância.
Método proposto
A pesquisa utilizou métodos qualitativos e quantitativos para mapear a evolução linguística do campo de visão computacional, identificando uma mudança de focos genéricos nos anos 90 para análises mais complexas sobre categorias semânticas e comportamentos humanos na década de 2010. O estudo destaca o uso de linguagem obscurantista que tende a normalizar a vigilância, dificultando a percepção pública de sua presença.
“Este trabalho oferece uma compreensão sistemática e detalhada da pesquisa em visão computacional e apresenta uma narrativa empírica concreta revelando o caminho da pesquisa até a vigilância.”
(“This work provides a detailed, systematic understanding of the field of computer vision research and presents a concrete empirical account that reveals the pathway from such research to surveillance.”)— Dr. Abeba Birhane, Diretora, AI Accountability Lab
Resultados e impacto
Os principais achados incluem a evidência de que a vigilância está cada vez mais escondida por jargões, colocando em risco os direitos à privacidade e liberdades civis. Entre as instituições que mais contribuem para a tecnologia de vigilância estão Microsoft, Carnegie Mellon e MIT, com os Estados Unidos, China e Reino Unido liderando a produção de pesquisas nesta área.
“Terminologias como ‘objeto’ se tornam sinônimos de ‘pessoas’, dificultando ainda mais a desconexão do ambiente de vigilância.”
(“One such example is how the word ‘object’ has been normalized as an umbrella term which is often synonymous with ‘people.’”)— Dr. Abeba Birhane, Diretora, AI Accountability Lab
Os resultados apontam para um contexto em que as tecnologias de machine learning são utilizadas para monitorar, manipular e até controlar comunidades marginalizadas. O estudo defende que as descobertas podem servir como evidência para ativistas e reguladores, visando propor mudanças significativas no campo.
Este estudo abre espaço para que pesquisadores em visão computacional adotem abordagens mais críticas, considerando as implicações éticas do seu trabalho e promovendo um ativismo mais informado dentro da comunidade científica.
Próximos passos podem incluir novas diretrizes para o uso responsável de machine learning e maior regulamentação sobre a vigilância tecnológica.
Fonte: (TechXplore – Machine Learning & AI)