The Shift

Viés racial vira dilema para uso de IA no policiamento

O viés presente em decisões tomadas por modelos de Inteligência Artificial é um problema real e generalizado no setor de tecnologia. Já foram expostos na mídia casos de racismo em algoritmos de machine learning do Facebook, em uma ferramenta para recrutamento da Amazon e no sistema de pontuação de crédito como um todo nos EUA – para citar alguns exemplos. 

Todos esses episódios repercutiram entre desenvolvedores e teóricos da IA que discutem como mitigar o viés conforme a tecnologia avança e é amplamente adotada no mundo. No entanto, quando um algoritmo torna-se uma arma com potencial de acabar com uma vida, a questão fica mais delicada. De acordo com reportagem do New York Times, especialistas em robótica estão se perguntando se vale a pena “facilitar para a polícia fazer o que anda fazendo agora”. 

O dilema surge quando se une duas tendências de tecnologia para policiamento. A primeira é a robótica. Em 2016, uma operação policial nos EUA utilizou um robô, desenvolvido para proteger a população de explosivos, como portador de uma bomba para eliminar um atirador. Desde então, robôs policiais vêm sendo utilizado cada vez mais em situações de risco para oficiais. 

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

No entanto, são robôs controlados remotamente por policiais. A decisão, por enquanto, é humana. Daí surge a segunda tendência: reconhecimento facial para vigilância. Forças de segurança dos EUA já utilizam sistemas de IA para identificar suspeitos com câmeras inteligentes. Na cidade de Detroit, já houve um erro do algoritmo, que levou à prisão injusta de um homem negro. 

As duas tecnologias serão combinadas e utilizadas pela polícia. Num futuro próximo, poderemos ver máquinas de guerra com visão computacional e reconhecimento facial fazendo a segurança das cidades em busca de suspeitos foragidos e armazenados em sua base de dados. E é exatamente esta previsão que leva desenvolvedores de IA a um dilema: a tecnologia resultará em ainda mais pessoas negras mortas pela segurança pública? 

“A tecnologia pode ser usada para controlar os movimentos sociais, com reconhecimento facial. Já vemos casos de inteligência artificial que replica comportamentos racistas. E aí vira um instrumento de discriminação e de totalitarismo”, diz Paulo Rogério Nunes, consultor em diversidade, em entrevista exclusiva. “O racismo do século XXI inevitavelmente será o racismo dos algoritmos”

Uma carta aberta assinada pelo movimento Black in Computing afirma que “não podemos confiar de boa fé a essas forças policiais os tipos de tecnologias robóticas que somos responsáveis por pesquisar e desenvolver”. Por outro lado, Alyanna Howard, pesquisadora da Universidade Georgia Tech, revela não ter assinado a carta. “Se pessoas externas com valores éticos não estão trabalhando com a polícia, então quem está?”, pondera a especialista. “Não é bom se não houver ninguém na sala para dizer: ‘eu não acredito que o robô deva matar’”. 

Odest Jenkins, pesquisador de robótica da Universidade de Michigan, diz que a falta de diversidade nas empresas de tecnologia é o cerne do problema: “A questão maior é, realmente, a representação na sala – no laboratório de pesquisa, na sala de aula, e na equipe de desenvolvimento, na diretoria”. A consciência das máquinas passa antes pelos humanos que as criam. 

Hoje, o conceito de Inteligência Artificial Ética já está mais difundido na indústria. Para além de discussões filosóficas sobre as decisões tomadas para a IA, desenvolvedores já estão criando aplicações práticas para auditoria de algoritmos e publicando manuais de boa conduta na hora de lidar com bases de dados. 

“A IA é baseada em dados, e dados são o reflexo da nossa história”, afirma Joy Buolamwini, pesquisadora do MIT e protagonista do documentário Coded Bias. Nesse sentido, “limpar” as bases de dados de informações relacionadas à raça parece ser a solução mais provável. Mas não é bem assim. 

Um estudo da Universidade de Stanford verificou que suprimir a autodeclaração de raça de uma base não exclui o viés, já que esta informação está correlacionada a diversas outras, como endereço. Ao mesmo tempo, deletar dez variáveis diferentes associadas à raça tampouco surte efeito prático nas decisões do algoritmo. 

Os pesquisadores notaram que o caminho é exatamente o oposto. A melhor forma de mitigar o viés é balanceando fatores relacionados à raça de forma ativa. Ou seja, se a população negra foi historicamente excluída do acesso a financiamentos no passada, uma IA que gera pontuação de crédito deve tomar este fator como positivo. Assim, a tecnologia repara erros históricos, cria equidade social e gera oportunidade de tornar as bases de dados menos enviesadas no futuro.