Sistema de reconhecimento facial para prender tem viés racista e gera erros
15 de janeiro de 2024, 8h52
Sistemas de reconhecimento facial não podem, por si sós, ser usados para prender ou basear outras medidas de processo penal. É preciso ter cautela com a prática, pois as ferramentas de inteligência artificial empregadas em tais programas costumam ter vieses racistas e gerar medidas incorretas, conforme afirmam os especialistas no tema ouvidos pela revista eletrônica Consultor Jurídico.
A Polícia Militar do Rio de Janeiro começou a usar no último Réveillon um sistema de reconhecimento facial que identifica pessoas contra quem há mandados judiciais em aberto. Desde então, o programa é utilizado nas Praias de Copacabana, Arpoador e Barra da Tijuca.
O investimento do governo do Rio com softwares e equipamentos foi de R$ 18 milhões. A previsão é que o sistema seja progressivamente utilizado em mais regiões e que, no Carnaval, esteja disponível no entorno do Sambódromo.
Porém, das quatro pessoas presas com base no sistema, duas foram soltas porque suas ordens de prisão já haviam sido revogadas. A Secretaria de Segurança Pública do Rio afirmou que “inconsistências do sistema podem ocorrer, por uma questão de atualização dos bancos de dados”. O programa usa informações do Sistema de Cadastro de Mandados de Prisão da Polícia Civil, e a ideia do governo é integrar essa base ao Banco Nacional de Mandados de Prisão, do Conselho Nacional de Justiça.
Sistemas de reconhecimento facial são usados por diversos países. A China tem um programa avançado e o usou para fiscalizar o lockdown durante a epidemia de Covid-19. O Japão utilizou um software do tipo na Olimpíada de 2021, enquanto o Reino Unido aplica a técnica em grandes eventos, como a coroação do Rei Charles 3º.
No Brasil, o reconhecimento facial vem sendo cada vez mais utilizado. Alegando aumento de roubos, o Metrô de São Paulo começou a implantar o sistema em 2022. A medida foi inicialmente barrada pela Justiça, porém, posteriormente o Tribunal de Justiça paulista (TJ-SP) aceitou recurso do Metrô e autorizou a implementação do programa.
Ainda assim, a corte condenou a ViaQuatro, concessionária da Linha 4 (Amarela) do Metrô paulista, a pagar indenização de R$ 500 mil por dano moral coletivo, devido ao uso do sistema de câmeras de segurança para captação, sem consentimento, de imagens dos usuários com fins comerciais e publicitários.
Não há legislação que regule especificamente o uso do reconhecimento facial como medida de segurança pública no país. Existem projetos de lei em tramitação, em âmbitos federal e estadual, favoráveis e desfavoráveis à medida.
Na Câmara dos Deputados, o PL 3.069/2022 regulamenta o uso do sistema por forças de segurança pública e define como reconhecimento facial o “procedimento biométrico automatizado com fim de identificação humana, realizado a partir da captura de uma imagem facial”. A proposta proíbe que o programa sirva, isoladamente, para prisões e denúncias. A ideia é que o reconhecimento facial seja combinado com outras práticas, como revisão pericial humana. Propostas semelhantes tramitam nas Assembleias Legislativas de Rio de Janeiro (PL 5.240/2021) e São Paulo (PL 385/2022).
Em artigo publicado na ConJur, a advogada Yuri Nabeshima comparou os projetos de lei brasileiros com as propostas europeia e americana.
“No contexto regulatório, enquanto a União Europeia, com base no GDPR (Regulamento Geral de Proteção de Dados), sinaliza uma postura cautelosa e restrições severas ao reconhecimento facial em locais públicos, os Estados Unidos estão enfrentando debates internos, culminando no projeto de lei Facial Recognition Act. No Brasil, a discussão está em estágio inicial, com diferentes propostas legislativas, refletindo a necessidade urgente de uma legislação abrangente para orientar o uso ético e responsável da tecnologia. A questão central permanece: como podemos equilibrar a segurança pública com a proteção dos direitos fundamentais em um mundo cada vez mais dominado pela FRT (tecnologia de reconhecimento facial)? Essa resposta demandará uma abordagem colaborativa e multissetorial para criar um ambiente regulatório que promova a segurança sem comprometer os valores democráticos fundamentais.”
Tendência racista
Segundo o devido processo legal digital, é incabível a execução de medidas cautelares tomadas com base unicamente na aplicação de sistemas de inteligência artificial, de acordo com o ex-professor de Direito Processual Penal da Universidade Federal do Rio de Janeiro Geraldo Prado, hoje investigador integrado ao Instituto Ratio Legis da Universidade Autônoma de Lisboa e consultor sênior do Justicia Latinoamérica (Chile). Seu livro Curso de processo penal: fundamentos e sistema, que será publicado pela Editora Marcial Pons em fevereiro, no Brasil, e em maio, na Espanha, abordará o assunto.
De acordo com Prado, o abuso jurídico dessas tecnologias “é de enorme gravidade quando o assunto é a liberdade das pessoas”. E elas acabam gerando resultados racistas e injustos.
“Com frequência, os enviesamentos da ferramenta digital são encobertos por uma ‘neutralidade’ irreal, inexistente e racista. Mas também são indevidamente usados em outros âmbitos, como o das cautelares patrimoniais, por causa da confiança ‘cega’ que muitos juízes criminais depositam em relatórios produzidos com emprego de aplicações de IA por sujeitos interessados na persecução penal. Isso provoca prejuízo a quem suporta as medidas cautelares, pessoas que são incapazes de, em tempo razoável, auditar informações massivas que respaldam providências em incidentes sobre bens, entre outros.”
“Jurisdição penal devia ser sinônimo de cuidado, desconfiança do poder, respeito ao contraditório e indelegabilidade de poder às máquinas. Quando operações de sistemas de reconhecimento facial são suficientes para prender alguém, as máquinas passam a ser os juízes de fato. E, por certo, essa ‘jurisdição das máquinas’ esconde cruéis jogos de poder”, avalia Prado.
A coordenadora de Defesa Criminal da Defensoria Pública do Rio de Janeiro, Lucia Helena Oliveira, afirma que a prisão de uma pessoa não deve ser feita com base apenas no reconhecimento facial.
“É possível que tenhamos problemas no sistema, e isso poderá implicar prisões de pessoas inocentes, violando direitos fundamentais dos cidadãos. Nesse sentido, a restrição ao direito à liberdade deve estar cercada de confiantes razões. Um erro no sistema pode levar uma pessoa inocente à prisão e o risco é que esses erros se repitam, cada vez mais, com pessoas negras, violando liberdades individuais e a efetividade do sistema de Justiça Criminal, que reclama cuidado e segurança na colheita de provas.”
A defensora pública destaca que medidas de reconhecimento facial podem servir para alimentar o racismo no Brasil. Portanto, aponta ela, é necessário debater o uso dessa tecnologia, ressaltando os riscos de violação de direitos da população mais vulnerável.
Mau começo
A Rede de Observatórios de Segurança monitorou, entre março e outubro de 2019, as experiências iniciais de cinco estados brasileiros com tecnologias de reconhecimento facial mediante câmeras de segurança: Bahia, Rio de Janeiro, Santa Catarina, Paraíba e Ceará. A entidade identificou que 90,5% dos presos por monitoramento facial no Brasil eram negros.
“Caso alguém seja indevidamente preso com base em sistema de reconhecimento facial, o Estado tem a obrigação de lhe pagar indenização por danos morais, tal como ocorre em outros casos de erro judicial”, analisa Lucia Helena.
A criminalista Maíra Fernandes, coordenadora do Departamento de Novas Tecnologias e Direito Penal do Instituto Brasileiro de Ciências Criminais (Ibccrim), tem opinião semelhante: “Afinal, quem devolve o tempo que uma pessoa passou em uma prisão injustamente? É um dano que pode até ser indenizável, mas é irreparável. As pessoas perdem emprego, tempo com a família, sofrem riscos na prisão (à saúde, à vida), tudo por um erro que é responsabilidade da empresa de reconhecimento, mas também do Estado, que implementou esse tipo de tecnologia como política de segurança pública”.
A seu ver, os sistemas de reconhecimento facial “são absolutamente falhos e causam graves erros judiciais”. “A experiência de utilização já mostra isso: pessoas erroneamente reconhecidas pelo sistema, muitas vezes, em razão do viés racista que esses sistemas têm.”
“Essas tecnologias não são neutras e carregam vieses da sociedade em que foram desenvolvidas. Uma sociedade discriminatória — como a em que vivemos — gerará um sistema discriminatório. Temos uma política de segurança pública que sempre foi discriminatória: policiais prendem mais negros e pardos. Nosso sistema penitenciário mostra isso. Mas, quando você passa esse viés discriminatório para um sistema, as consequências são ainda maiores. Isso significa ter um sistema de tecnologia monitorando toda a população de um determinado lugar com viés racista”, afirma Maíra, que já foi presidente do Conselho Penitenciário do Rio de Janeiro.
Dessa maneira, afirma a advogada, a tecnologia acaba sendo usada para a perpetuação do racismo estrutural, que sempre fez parte das políticas de segurança pública, mas sob uma chancela especial, uma espécie de argumento de autoridade que atribui a responsabilidade pelas prisões à tecnologia.
“Mas quem alimenta o sistema? Quem o desenvolve? Quem o utiliza? São pessoas. E os dados utilizados neles têm, na maior parte das vezes, esse viés discriminatório, que reproduz uma política de segurança que sempre foi racista”, ressalta a criminalista.
Além disso, “sob um viés garantista penal, o uso de câmeras de reconhecimento facial no espaço público é tratar todo mundo como um potencial criminoso, por meio da checagem ininterrupta de identidade”, escreveu Maíra em artigo publicado na ConJur com a advogada Flora Sartorelli Venâncio de Souza.
Encontrou um erro? Avise nossa equipe!