Mulheres negras sofrem mais erros em abordagens de reconhecimento facial do que brancos
Pesquisadoras apontam problemas na aplicação de tecnologias de reconhecimento facial na segurança pública
Por Beatriz de Oliveira
04|03|2024
Alterado em 04|03|2024
Enquanto curtia uma festa ao ar livre com suas amigas, Gildeane Taislaine Santos foi abordada duas vezes por policiais após ter sido erroneamente identificada por câmera de reconhecimento facial como uma possível suspeita foragida da Justiça. Embora a identificação tenha sido considerada incorreta, isso não anula o constrangimento e a abordagem truculenta que a mulher teve que enfrentar. O incidente ocorreu em Aracaju (SE) no fim de 2023 e pode ilustrar como o uso de câmeras de reconhecimento facial na segurança pública impacta de maneira desproporcional as mulheres negras, tornando-se mais um instrumento de repressão numa sociedade marcada pelo racismo.
De modo geral, essas ferramentas monitoram pessoas em locais públicos, comparando seus rostos com bancos de dados de cidadãos procurados pela Justiça. No entanto, a existência de vários casos de “falsos-positivos”, nos quais a pessoa identificada não é de fato a procurada pela Justiça, e situações de erro devido à falta de atualização dos bancos de dados, traz sérias preocupações, conforme afirmam especialistas ouvidos pela reportagem.
Políticas públicas com uso de tecnologias de reconhecimento facial na segurança pública são gestadas a nível estatal e municipal, o que resulta em falta de padronização desses sistemas. Além disso, o país não dispõe de regulação específica para essas tecnologias. De modo geral, o poder público instala essas tecnologias através de licitações e parcerias com empresas privadas
Horra Moreira, advogada, pesquisadora e coordenadora da campanha “Tire Meu Rosto da Sua Mira“, que reivindica o banimento total das tecnologias digitais de reconhecimento facial na segurança pública brasileira, destaca os impactos desiguais desses sistemas. “Na segurança pública fica muito evidente os efeitos do uso de um sistema que classifica e define quais corpos devem ser abordados e privados de liberdade, num país como o Brasil que é um dos que tem maior população carcerária do mundo e tem histórico de escravidão e perseguição a pessoas negras e racializadas”, afirma.
Atualmente, essas tecnologias estão presentes em todos os estados do país, monitorando aproximadamente 47,6 milhões de pessoas, o equivalente a um quinto da população, segundo levantamento do O Panóptico, plataforma do Centro de Estudos de Segurança e Cidadania (CESeC) que monitora novas tecnologias de segurança pública no Brasil.
As máquinas erram mais com mulheres negras
O uso do reconhecimento facial na segurança pública e sua tendência a erros, especialmente em relação a pessoas negras, é uma discussão internacional. Joy Buolamwini, cientista da computação americana, é uma das pioneiras na produção de estudos sobre o tema e mostrou que as mulheres negras são as mais impactadas. “Pesquisas mostram, a diferença da performance dessas tecnologias para pessoas racializadas e a forma como ela é construída para identificação de rostos pessoas. Há desempenho de forma distinta com maior disparidade ao comparar mulheres negras e homens brancos, isso foi visto através do trabalho da Joy”, diz Horrara Moreira.
Horra Moreira é coordenadora da campanha “Tire Meu Rosto da Sua Mira”
©arquivo pessoal
Thallita Lima, coordenadora de pesquisa do O Panóptico, enfatiza que as tecnologias não são neutras, e a máquina tende a aprender padrões discriminatórios se alimentada com dados enviesados. Como os bancos de dados são predominantemente compostos por informações de homens brancos, a tendência é que a máquina cometa mais erros no reconhecimento de mulheres negras. Ela ressalta que a tecnologia, por si só, não é uma solução ideal para os problemas estruturais da segurança pública.
A coordenadora destaca a crescente presença das tecnologias de reconhecimento facial em nosso cotidiano, seja para desbloqueio do celular, acesso à plataforma do Gov.br (do governo federal) e criação de conta em bancos digitais. Nestes casos, o reconhecimento exige condições específicas, como ter o rosto centralizado na tela e em ambiente claro, fatores que não são garantidos nas tecnologias instaladas em espaços públicos.
Thallita Lima é coordenadora de pesquisa do O Panóptico
©arquivo pessoal
Aponta ainda que a adoção dessas tecnologias não produziu os resultados desejados na redução da criminalidade. “A Bahia é o estado que mais usa tecnologias de reconhecimento facial, está em mais de 70 municípios, e quando fizemos o relatório, analisamos os índices criminais do período em que está sendo usado reconhecimento social e não tem variação. Então, se o objetivo é diminuir a criminalidade e a sensação de violência, não tem impacto”, diz Thallita.
Além dos erros de reconhecimento, a implementação desses mecanismos resulta em sérias consequências, como prisões indevidas e abordagens policiais violentas. Horrara Moreira destaca que a presença do reconhecimento facial na segurança pública coloca em risco a privacidade, a liberdade, o direito de reunião e associação, e o exercício da democracia em uma escala mais ampla.
Esse conteúdo foi publicado originalmente no Expresso na Perifa