Webdocumentário discute como Reconhecimento Facial afeta mulheres negras e pessoas trans

Coding Rights lança nesta quinta-feira o segundo episódio da websérie From Devices to Bodies, um curta sobre como tecnologias de reconhecimento facial, desenvolvidas majoritariamente por homens brancos – e eficazes somente com eles – têm sido usadas para vulnerabilizar grupos minorizados 

Além dos nossos aparelhos eletrônicos preferidos, nossos corpos também estão se tornando fontes de dados, do reconhecimento facial à coleta de informações de DNA. “Smart”, “mais seguro”, “mais saudável” são narrativas comuns por trás de tecnologias digitais e biotecnologias que estão levando as já preocupantes práticas de perfilamento a um outro nível e com forte viés discriminatório de populações minorizadas. 

Para discutir essas questões, a Coding Rights lança hoje o segundo episódio da websérie From Devices to Bodies* (Das telas aos nossos corpos) chamado “Reconhecimento facial: gênero, raça e território”. Dessa vez, Joana Varon entrevistou a pesquisadora do MIT Joy Buolamwini, que, entre muitas outras coisas, se define como “poetisa dos códigos” e é Fundadora da Algorithmic Justice League (Liga da Justiça Algorítmica). A conversa aconteceu no próprio Instituto de Tecnologia de Massachusetts, quando ainda não existia a pandemia de COVID-19 e o distanciamento social não era um imperativo. Esse episódio conta também com a participação da pesquisadora e ativista Mariah Rafaela, que se auto-intitula mulher trans, negra e favelada, doutoranda em Comunicação pela Universidade Federal Fluminense, e está prestes a lançar junto com a Coding um novo estudo sobre Reconhecimento Facial e suas interseccionalidades de gênero raça e território. Por fim, também entrevistamos a nossa querida twitteira e cientista da computação, Nina Da Hora. 

Não é de hoje que se discute como as tecnologias não são nada neutras. Elas são atravessadas por juízos de valor criados em sociedade e podem refletir as visões de mundo de seus desenvolvedores. Dessa forma, certos bias (viés, muitas vezes denotando preconceitos) podem influenciar o funcionamento dos sistemas de biometria facial. Como explica Mariah, a biometria facial opera com o que é classificado como normal e como anormal, com o que é visível e o que é invisível. “Isso é obviamente transferido para as racionalidades tecnológicas de quem produz esses códigos tecnológicos, quem configura e codifica as inteligências artificiais e, depois, dos operadores”. Acrescente-se a isso o fato de que, como aponta Nina Da Hora, as empresas que criam, desenvolvem e vendem essas tecnologias serem predominantemente compostas por pessoas brancas. Portanto, há aí uma série de perigos no desenvolvimento e uso das tecnologias de reconhecimento facial, em especial quando aplicadas às mulheres negras e à população trans. Casos reais de implementação falha dessas tecnologias são discutidas no vídeo.

Reconhecimento facial para segurança pública? Como forma de autenticação de documentos de identidade? 

A pesquisadora do MIT, Joy Buolamwini​, aponta também alguns dados do seu estudo Gendershades, que analisa o viés de gênero e raça em diferentes sistemas de reconhecimento facial: os sistemas da Microsoft, Face++ e IBM dão respostas de forma precisa apenas quando os sujeitos são homens brancos. A proporção de acertos cai no caso de homens negros e é menor ainda no caso de mulheres negras. Ou seja, quando analisados os resultados por quatro subgrupos, as três empresas tiveram pior desempenho em mulheres de pele mais escura. 

Sob pretexto de inovação e segurança pública, tecnologias de reconhecimento facial com eficácia bastante limitada e com perigosas imprecisões têm sido comercializadas e usadas em câmeras de CCTV sem regulamentação e supervisão ao redor do mundo, ameaçando propagar preconceitos e inverter o princípio da presunção de inocência. Em larga medida, essas tecnologias são utilizadas em lugares estratégicos dos territórios e os alvos são grupos demográficos historicamente submetidos à determinada ordem (pessoas trans, negras, periféricas, PCD, etc). Mas nós precisamos ter escolha e a oportunidade de dizer não! Em algumas cidades norte-americanas, por exemplo, essa tecnologia foi banida da aplicação para segurança pública e algumas empresas, depois de pressão popular, prometeram não vender mais suas tecnologias para a polícia. Como anda o tema no Brasil? 

Por aqui, cada vez mais cidades estão testando essas tecnologias em câmeras para policiamento, mas também para autenticar identidade, seja no ônibus, aeroportos, na carteira de motorista, no app meugov.br que dá acesso a serviços públicos como o INSS… E não são poucos os casos, no Brasil e no mundo, de erros com viés de classe social, gênero e raça, atribuindo falsos positivos justamente a esses perfis. Além do mais, a Serpro, principal fornecedora dessa tecnologia para o setor público, que detém bases de dados da CNH, que inclui nossos dados biométricos, corre o risco de ser privatizada. O vídeo da série vem para problematizar tudo isso e aumentar o debate público para que se promova um uso inclusivo e consciente de tecnologias de reconhecimento facial. 

Sobre a websérie 

*From Devices To Bodies é uma websérie de curtas produzida pela Coding Rights que reúne conversas fascinantes com mulheres e pessoas não-binárias, pesquisadoras que visam ampliar os debates sobre a implementação de biotecnologias e tecnologias digitais que funcionam baseadas na coleta de dados sobre nossos corpos​. O primeiro vídeo foi sobre DNA. Você pode assistir todos os episódios, em inglês e português, no youtube da Coding Rights.