Reconhecimento facial está presente em todos os estados do Brasil

O Brasil tem, pelo menos 195 projetos que usam o reconhecimento facial para ações de segurança pública, segundo a pesquisa Panóptico do Centro de Estudos de Segurança e Cidadania (CESeC). Segundo o coordenador do centro, Pablo Nunes, foram identificadas iniciativas do tipo em todos os estados brasileiros.

Entre 2019 e 2022, o estudo identificou 509 casos de pessoas presas usando esse tipo de tecnologia. No entanto, Nunes ressalva que “o número de prisões com essa tecnologia é muito maior do que nós conseguimos monitorar”.

Os dados levantados em 2019 pelo grupo mostram que das 184 prisões identificadas naquele ano, mais de 90% eram de pessoas negras. “A gente viu um aprofundamento do perfil nos presos por reconhecimento facial, focado em jovens negros presos por crimes sem violência, principalmente pela Lei de Drogas, que tem sido um grande instrumento de inchaço da nossa população carcerária”, diz Nunes.

A distribuição dos projetos de reconhecimento facial pelo país não responde, segundo Nunes, a nenhuma lógica de estatísticas de criminalidade ou de concentração populacional. De acordo com o levantamento, Goiás é o estado com maior número de projetos, com 45 iniciativas, seguido pelo Amazonas, com 21 projetos, Paraná (14) e São Paulo (12).

Na capital paulista, foi assinado em agosto o contrato do Smart Sampa, projeto que prevê a instalação de 20 mil câmeras de segurança programadas para fazer reconhecimento facial até o final de 2024. O sistema custará R$ 9,8 milhões por mês aos cofres públicos.

Os riscos de identificações erradas são destacados no relatório Mais Câmeras, Mais Segurança?, lançado pelo Instituto Igarapé em 2020, analisando as experiências de uso de câmeras associadas à inteligência artificial em Salvador (BA), Campinas (SP) e no Rio de Janeiro. O problema pode ocorrer, segundo o estudo, caso a programação não seja feita a partir de uma base de dados diversa de rostos.

Em outra pesquisa, lançada em 2018, as pesquisadoras Joy Buolamwini, do Instituto de Tecnologia do Massachusetts (MIT), e Timnit Gebru, à época na Microsoft, identificaram que as tecnologias de reconhecimento facial chegavam a ter um índice de erro de 34,7% ao tentar identificar mulheres de pele escura. Entre os homens de pele clara, o percentual, segundo o estudo, era de 0,8%.

Para o coordenador do centro de estudos, a forma como esse tipo de tecnologia está sendo implementada no Brasil demonstra os riscos de discriminação racial sistêmica contra populações menos protegidas socialmente, especialmente as pessoas negras. “Entender a adoção desses algorítimos de reconhecimento facial na segurança pública no Brasil ilumina bastante os perigos e os potenciais de violação que essas tecnologias podem ter quando utilizadas para persecução penal”, enfatiza.

Racismo algorítimico
Além disso, na visão do centro de estudos, há a inversão de prioridades no uso dos recursos públicos que, como são limitados, acabam faltando em outras áreas, novamente atingindo a qualidade de vida das populações menos favorecidas. “Esse dinheiro que poderia estar sendo utilizado para adoção de saneamento básico em cidades que não o possuem tem sido utilizado para câmeras de reconhecimento facial, uma tecnologia cara, enviesada e racista”, analisa.

Para o pesquisador da Fundação Mozilla, Tarcízio Silva, o uso de dados biométricos de forma a criminalizar a população negra e o desvio de recursos que poderiam melhorar as condições de vida dessas populações para esse tipo de projeto são faces de um fenômeno chamado racismo algorítimico.

Entre outros danos causados pelo enviesamento racista da tecnologia, Silva aponta, por exemplo, a disseminação de desinformação a partir de conteúdos gerados automaticamente por inteligência artificial. “Sistemas algorítimicos, infelizmente, podem aprofundar desinformação, representações negativas, tanto políticas quanto erroneamente factuais sobre o mundo”, diz o pesquisador, que faz parte de um projeto que identifica prejuízos causados pelo uso enviesado da tecnologia.

Foto: Fernando Frazão

Facebook
Twitter
WhatsApp
Posts Recomendados