
São Paulo — InkDesign News —
O uso crescente de machine learning e inteligência artificial (AI) em diversas áreas, especialmente na aplicação da lei, levanta questões cruciais sobre ética e eficácia. Novas iniciativas buscam garantir que essas tecnologias sejam utilizadas de forma responsável e alinhada às necessidades sociais.
Contexto da pesquisa
A implementação de ferramentas de AI nas agências de policiamento tem sido intensa, mas não sem seus desafios. De prisões equivocadas a preocupações sobre reconhecimento facial, a adoção dessas tecnologias requer uma análise crítica. Em resposta a essa demanda, surge o Responsible AI Toolkit, desenvolvido em colaboração com a Universidade Northeastern e instituições internacionais, como as Nações Unidas e a Interpol.
Método proposto
A ferramenta foi idealizada por Cansu Canca, diretora da prática de AI responsável na Universidade Northeastern. O toolkit busca fazer uma pergunta fundamental: “Você realmente precisa de AI?” (“The first thing that we start with is asking the organization, when they are thinking about building or deploying AI, do you need AI?”). Com isso, busca-se mitigar riscos associados ao uso de novas tecnologias, proporcionando uma abordagem ética ao seu desenvolvimento.
Resultados e impacto
Através de treinamentos, milhares de policiais já foram capacitados a entender as implicações de suas ferramentas tecnológicas. A proposta inclui a utilização de AI não apenas para tarefas complexas, como reconhecimento facial, mas também para atividades cotidianas, como transcrições de vídeos de câmeras corporais. “A coisa mais importante é garantir que toda vez que criamos uma ferramenta de AI para a aplicação da lei, temos a melhor compreensão possível de como essa ferramenta pode falhar” (“The most important thing is making sure that every time we create an AI tool for law enforcement, we have as clear an understanding as possible of how likely this tool is to fail”), afirma Canca. Esse entendimento é essencial para evitar a reprodução de preconceitos históricos já presentes em práticas de policiamento.
O toolkit, portanto, não é um modelo único, mas uma estrutura adaptável a diferentes contextos e setores, eliminando viéses e discriminções. O foco é estabelecer que a tecnologia deve ser um suporte ao julgamento humano, melhorando a segurança pública sem comprometer princípios éticos fundamentais.
As descobertas e diretrizes apresentadas por essa pesquisa têm aplicações potenciais em diversas áreas, promovendo a discussão sobre o uso responsável de AI e machine learning nas instituições públicas. Os próximos passos incluem a implementação de treinamentos adicionais em outros países e a constante avaliação ética de tecnologias pertinentes.
Fonte: (TechXplore – Machine Learning & AI)