Predictive policing AI precisa de accountability pública para reduzir danos

São Paulo — InkDesign News — Pesquisas recentes analisam o uso de machine learning e inteligência artificial (IA) em sistemas de policiamento preditivo, evidenciando desafios éticos e a necessidade de maior transparência e responsabilidade no uso dessas tecnologias.
Contexto da pesquisa
O policiamento preditivo utiliza IA e análise de dados para antecipar atividades criminosas, com base em grandes conjuntos de dados que incluem registros de crimes, prisões e informações sociais e geográficas. Embora a análise de dados em segurança pública não seja novidade, tecnologias avançadas de IA permitem hoje análises mais detalhadas para direcionar recursos policiais a locais considerados de alto risco, conhecidos como “hot spots”, ou identificar indivíduos com maior probabilidade de envolvimento em crimes.
Contudo, sistemas assim têm enfrentado críticas por potencialmente violarem direitos de privacidade e reproduzirem vieses socioeconômicos e raciais, levando a questionamentos sobre a efetividade e justiça dessas abordagens nas forças policiais dos EUA e no mundo.
Método proposto
Pesquisadores e órgãos governamentais têm buscado formas de aumentar a transparência e a responsabilidade no uso dessas ferramentas de IA. Um exemplo destacado é a cidade de San Jose, na Califórnia, que implementou diretrizes de princípios éticos para IA, exigindo avaliações públicas e riscos antes da adoção das tecnologias nas operações municipais.
As medidas adotadas visam “abrir a caixa-preta” dos algoritmos, permitindo que a população conheça os critérios usados, os dados envolvidos e as salvaguardas para evitar discriminação e uso indevido. Essa abordagem promove maior supervisão externa e aperfeiçoamento contínuo dos sistemas.
“Se tomadas corretamente, essas medidas podem abrir a caixa-preta, reduzindo dramaticamente o quanto as empresas de IA podem esconder seus códigos ou dados por trás de proteções como segredos comerciais.”
(“If taken correctly, these measures can effectively open the black box, dramatically reducing the degree to which AI companies can hide their code or their data behind things such as protections for trade secrets.”)— Pesquisadores envolvidos na regulamentação de IA, San Jose City
Resultados e impacto
A falta de transparência dos sistemas algorítmicos utilizados em policiamento preditivo gerou controvérsias e interrupções em programas notórios, como na Flórida e Chicago, onde processos judiciais e denúncias revelaram violações de direitos constitucionais e vieses. Essas experiências evidenciam a dificuldade em desenvolver sistemas com alta acurácia sem prejuízo a grupos socialmente vulneráveis.
Pesquisas indicam que a adoção de políticas públicas que envolvam a sociedade e promovam a transparência nos processos de decisão algorítmica aumentam a participação cidadã e fortalecem os resultados em segurança pública, desde que a tecnologia seja vista como uma ferramenta auxiliar e não substitutiva da justiça.
“Quando os cidadãos percebem que as instituições governamentais atuam de forma justa e transparente, eles tendem a se engajar mais na vida cívica e apoiar políticas públicas.”
(“Research has shown that when citizens feel that government institutions act fairly and transparently, they are more likely to engage in civic life and support public policies.”)— Analista de políticas públicas, Instituto de Pesquisa Cívica
As próximas etapas envolvem a criação de modelos de machine learning com métricas rigorosas de desempenho e ética, validados em datasets diversificados para minimizar vieses, além do desenvolvimento de regulamentos que exijam prestação de contas e auditoria pública dos sistemas adotados por entidades policiais.
Para quem deseja aprofundar no tema, veja artigos relacionados em machine learning e deep learning.
Fonte: (TechXplore – Machine Learning & AI)