+55 (21) 2505-9393
+55 (21) 99731-6528
contato@acpdbrasil.com

Por que a biometria é um dado pessoal sensível?

Conformidade, Proteção e Privacidade de Dados

Por que a biometria é um dado pessoal sensível?

Por que a biometria é um dado pessoal sensível? Nós desbloqueamos nossos smartphones apenas olhando para a tela, e costumávamos achar legal o fato do Facebook e o Google Photos sugerirem nossas marcações em fotos, e até mesmo de nossos amigos e familiares. O que geralmente não refletimos é que a tecnologia por trás desses recursos não é apenas algo bacana e interessante, já que esta é a mesma tecnologia utilizada para vigilância realizada por autoridades, seja em zonas de imigração, em aeroportos, estádios de futebol, praias, grandes eventos públicos etc. Contudo, vai além, e também é empregada em decisões de crédito, oportunidades de trabalho e até mesmo moradia. Não é à toa que o reconhecimento facial vem sendo proibido para uso corriqueiro, por forças policiais e agências locais em várias cidades do mundo, com destaque para Boston, Michigan e São Francisco, nos EUA.

Você pode estar se perguntando o porquê que o reconhecimento facial está sendo proibido, certo? Bem, quando comparamos o reconhecimento facial com os dados pessoais biométricos mais utilizados, como por exemplo, impressão digital, íris, palma da mão e voz, ele é o menos preciso e está repleto de questões relacionadas à privacidade.

Nos EUA, a polícia vem usando o reconhecimento facial para comparar fotos de suspeitos de cometerem delitos, com imagens de carteiras de motoristas. Em matéria publicada pela Harvard University, em outubro do ano passado, estimou-se que mais de 117 milhões de norte-americanos, em 2016, tinham fotos em bancos de dados que realizam este tipo de comparação. Um problema imediato é que essa participação involuntária neste programa, ocorre sem consentimento, ou qualquer outra hipótese legal, ou até mesmo sem a menor noção desses cidadãos, de que isto está ocorrendo. E, o mais grave, num geral, legisladores reconhecem que raramente a legislação acompanha a tecnologia emergente, os métodos de processamento de dados, os avanços inesperados de modelos de negócio e aplicativos digitais.

No Brasil, pode parecer algo distante, mas não é. Segundo Rodrigo Dias de Pinho Gomes, todos os aeroportos internacionais do nosso país já têm sistemas de reconhecimento facial. Um outro exemplo de emprego de inteligência artificial é o que é utilizado na Praia de Copacabana, no Rio de Janeiro, onde várias câmeras e algoritmos de reconhecimento facial estão sendo amplamente utilizados, o que acarreta abordagens policiais, monitoramento e demais ações relacionadas a tratamento de dados, inclusive. No que se refere à Polícia Militar do Rio de Janeiro, duas pessoas foram presas em um jogo de futebol com base em sistemas de reconhecimento facial. A tecnologia de reconhecimento facial também vem sendo amplamente utilizada no Carnaval do Rio de Janeiro. E a empresa que fornece essa tecnologia a este Estado é a empresa privada Oi. O projeto é uma parceria entre as secretarias das Polícias Militar e Civil, Detran, Prefeitura do Rio de Janeiro e a Oi. No Brasil, a grande maioria dos sistemas de Inteligência Artificial utilizados pela inciativa pública são fornecidos por empresas da administração privada.

O sistema usa um software da Oi e as imagens capturadas são transmitidas diretamente para o Centro Integrado de Comando e Controle (CICC), na Cidade Nova, região do Centro, do Rio de Janeiro. No CICC, as imagens são checadas e comparadas com os bancos de dados da Polícia Civil, no caso de reconhecimento facial, e do Detran para as placas de carros. Segundo Fernando Veloso, comentarista do Jornal Bom dia Rio, a precisão do algoritmo utilizado é de noventa e dois por cento (92%).

Segundo o coronel Mauro Fliess, porta-voz da Secretaria, destacou que o custo inicial do projeto foi zero, uma vez que a Oi já tinha contrato com os órgãos de segurança na instalação de programas de comunicação nas viaturas policiais.

“A Oi já é uma parceira do estado. Hoje, dá todo o suporte à telefonia 190 e a toda a rede de dados da corporação. Esse custo já está agregado ao serviço que a Oi presta ao Estado. Isso na realidade é o tráfego de dados”

Coronel Mauro Fliess, porta-voz da Secretaria

Na capital bahiana, Salvador, também foi adotado sistema de reconhecimento facial. Contudo lá, é o mesmo sistema adotado na China, e as próprias câmeras já dispõem de software de reconhecimento facial, que atuam por meio de cruzamento de informações com bancos de dados estatais.

Cabe ressaltar que o emprego desse tipo de tecnologia traz benefícios, como melhora da segurança pública e otimização da alocação de recursos. Contudo, é importante que sejam debatidos quais são os critérios para implementação e utilização dessas tecnologias, quais mecanismos de controle e o seu e grau de transparência são empregados.

Não podemos esquecer, que por aqui há a Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709/2018. Os §§ 1º e 2º, do Art. 4º chamam a nossa atenção. O § 1º estabelece que o tratamento de dados pessoais realizado para fins de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais será regido por legislação específica (ainda inexistente), que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos nesta Lei. Já o § 2º determina que é vedado o tratamento dos dados para os fins supracitados por pessoa de direito privado, exceto em procedimentos sob tutela de pessoa jurídica de direito público, que serão objeto de informe específico à autoridade nacional de proteção de dados (ANPD), e que deverão observar a limitação imposta no § 4º do, Art. 4º, da LGPD.     

Somado ao que já foi exposto, o que é mais perturbador, no entanto, é que a implementação atual do reconhecimento faicial carrega uma boa parcela de preconceito racial, o que de fato pode ampliar as desigualdades pré-existentes. Já que estas tecnologias são baseadas em uma longa história de vigilância racista e anti-ativista, ou seja, os algoritmos são reflexo da sociedade em que vivemos.

Definitivamente, a preocupação com tecnologias de reconhecimento facial, não é um caso isolado, e muito menos restrito às fronteiras brasileiras, e alguns países estão repensando os seus empregos aceitáveis. A Organização Mundial das Nações Unidas (ONU) publicou relatório, criticando duramente a utilização irrestrita no Reino Unido de tecnologias de reconhecimento facial por autoridades, já que acarretou inúmeros falsos positivos e discriminação de minorias. A própria Autoridade Nacional de Proteção de Dados do Reino Unido, a Information Commissioner’s Office (ICO) também já reiterou que mesmo as autoridades precisam respeitar os arcabouços jurídicos-regulatórios que falam sobre privacidade e proteção de dados.

Em 9 de julho de 2019, foi amplamente divulgada uma falha no Sistema de reconhecimento facial carioca, quando uma mulher foi detetida por engano, na Praia de Copacabana. Ná época, os policiais acreditavam ter prendido uma foragida da Justiça, acusada de homícidio e ocultação de cadáver. Somente após ser conduzida à 12ª DP (Copacabana), que os agentes confirmaram que esta mulher não era a fugitiva.

A parcialidade em algoritmos de reconhecimento facial

Os algoritmos de reconhecimento de rosto apresentam alta precisão de classificação (mais de 90%), embora esses resultados não sejam universais. Um grupo de pesquisadores concluiu que há taxas de erro divergentes e relevantes entre grupos demográficos, com a menor precisão encontrada consistentemente em indivíduos do sexo feminino, negros e dentro da faixa etária de 18 a 30 anos. O projeto Gender Shades, de 2018, realizou uma abordagem interseccional que foi aplicada para avaliar algoritmos de classificação de gênero, incluindo aqueles desenvolvidos pela IBM e Microsoft. Os indivíduos foram agrupados em quatro categorias:

  • mulheres de pele mais escura;
  • homens de pele mais escura;
  • mulheres de pele mais clara; e
  • homens de pele mais clara.

Os três algoritmos utilizados tiveram o pior desempenho em mulheres de pele mais escura, com taxas de erro até 34% maiores do que para homens de pele mais clara. A avaliação independente do Instituto Nacional de Padrões e Tecnologia (NIST) confirmou esses estudos, descobrindo que as tecnologias de reconhecimento facial em 189 algoritmos são menos precisas em mulheres negras.

Os resultados do projeto em questão moldaram um discurso contínuo em torno da equidade no reconhecimento facial. A IBM e a Microsoft anunciaram medidas para reduzir o preconceito, modificando a Análise de Cohort, que melhorou a coleta de dados, em dados demográficos específicos. Uma nova auditoria do Gender Shades confirmou uma diminuição nas taxas de erro em mulheres negras e investigou mais algoritmos, incluindo o Rekognition da Amazon, que também mostrou preconceito racial contra mulheres de pele mais escura (31% de erro na classificação de gênero). Este resultado corroborou uma avaliação anterior da capacidade de correspondência facial do Rekognition pela American Civil Liberties Union (ACLU), na qual 28 membros do Congresso norte-americano, pessoas negras, foram correspondidas incorretamente quando comparadas a imagens de bancos de dados para reconhecimento facial. No entanto, as respostas da Amazon foram defensivas, alegando problemas com a metodologia dos auditores, ao invés de abordar o preconceito racial. Como a Amazon comercializou sua tecnologia para a aplicação da lei, essas discrepâncias são preocupantes. As empresas que fornecem esses serviços têm a responsabilidade de garantir que sejam equitativas – tanto em suas tecnologias quanto em suas aplicações.

Reconhecimento facial na discriminação racial por parte da aplicação da lei

Um fato histórico, ocorreu na Nova York do século 18, com a “lei das lanternas”, que exigia que os escravos carregassem lanternas depois de escurecer, para serem visíveis publicamente. Os defensores temem que, mesmo que os algoritmos de reconhecimento facial sejam tornados equitativos, as tecnologias possam ser aplicadas com o mesmo espírito, prejudicando desproporcionalmente comunidades específicas, com padrões racistas existentes de aplicação da lei. Além disso, o reconhecimento facial pode potencialmente ter como alvo outras populações marginalizadas, como imigrantes sem documentos pelo Immigration and Customs Enforcement (ICE) ou cidadãos muçulmanos.

Práticas discriminatórias de aplicação da lei foram destacadas após o assassinato de George Floyd pelo Ministério Público de Minneapolis. Os norte-americanos negros têm maior probabilidade de serem presos e encarcerados por crimes menores do que os norte-americanos brancos. Consequentemente, os negros são super-representados nos dados de fotos, que o reconhecimento facial usa para fazer previsões. A presença negra em tais sistemas cria um ciclo de feed-forward por meio do qual estratégias racistas de policiamento levam a prisões desproporcionais de pessoas negras, que ficam então sujeitas a vigilância futura.

Em um exemplo marcante, o programa modelo de vigilância Project Green Light (PGL) foi implementado em 2016, instalando câmeras de alta definição em toda a cidade de Detroit. Os dados, que são transmitidos diretamente para o Departamento de Polícia de Detroit, podem ser testados para reconhecimento facial em bancos de dados criminais, carteiras de habilitação e fotos de identidade do estado; quase todos os residentes de Michigan estão neste sistema. Mas as estações PGL não são distribuídas igualmente: a vigilância se correlaciona com áreas de maioria negra, evitando enclaves brancos e asiáticos. Ao entrevistar os residentes, uma análise crítica da PGL relatou em 2019 que:

“a vigilância e a coleta de dados estavam profundamente ligadas ao desvio de benefícios públicos, habitação precária, perda de oportunidades de emprego, policiamento e subsequente criminalização dos membros da comunidade que entram em contato com esses sistemas de vigilância.”

O PGL ilustra como os sistemas de monitoramento facial podem perpetuar a desigualdade racial se sua aplicação não for regulamentada.

Construindo um cenário de reconhecimento facial menos tendencioso

Vários caminhos estão sendo buscados para lidar com essas desigualdades. Alguns visam o desempenho algorítmico técnico. Primeiro, os algoritmos podem ser treinados em conjuntos de dados diversos e representativos, já que os bancos de dados de treinamento padrão são predominantemente brancos e masculinos. A inclusão nesses conjuntos de dados deve exigir o consentimento de cada indivíduo. Em segundo lugar, as fontes de dados (fotos) podem ser tornadas mais equitativas. As configurações padrões das câmeras geralmente não são otimizadas para capturar tons de pele mais escuros, resultando em imagens de banco de dados de baixa qualidade de pessoas negras. O estabelecimento de padrões de qualidade de imagem para executar o reconhecimento de rosto e configurações para fotografar pessoas negras pode reduzir esse efeito. Terceiro, para avaliar o desempenho, auditorias regulares e éticas, especialmente considerando registros que se cruzam (ou seja, jovens, pele mais escura e mulheres, por exemplo), pelo NIST ou outras fontes independentes podem responsabilizar as empresas de reconhecimento facial por vieses metodológicos remanescentes.

O Algorithmic Accountability Act de 2019 autorizou a Federal Trade Commission (FTC), dos Estados Unidos, a regular as empresas, decretando obrigações para avaliar o treinamento algorítmico, a precisão e a privacidade dos dados. Além disso, várias audiências no Congresso norte-americano consideraram especificamente a discriminação contra os negros no reconhecimento facial. Os poderosos protestos após o assassinato de George Floyd também geraram mudanças significativas. Os democratas do Congresso Norte-americano apresentaram um projeto de reforma da polícia contendo cláusulas para restringir o uso de tecnologias de reconhecimento facial. Mais surpreendente foi a resposta da tecnologia: a IBM descontinuou seu sistema, a Amazon anunciou um congelamento de um ano no uso do Rekognition, pela polícia, e a Microsoft suspendeu as vendas de sua tecnologia de reconhecimento facial para a polícia norte-americana, até que as regulamentações federais sejam instituídas. Esses avanços têm apoiado os apelos por uma legislação mais progressiva. Por enquanto, o movimento por um reconhecimento facial igualitário está entrelaçado com o movimento por um sistema de justiça criminal igualitário.

Em 2019, o professor de direito chinês Guo Bing deu início ao que foi amplamente visto como o primeiro desafio legal contra a tecnologia de reconhecimento facial, processando um zoológico local por exigir que os visitantes registrassem seus rostos como parte de um novo sistema de entrada. Em novembro do ano passado, o juiz do caso ordenou que o zoológico indenizasse o Sr. Guo ao equivalente a US$ 160.

Ocasionalmente, as autoridades são alvo de reclamações de privacidade. Na primavera passada, um aplicativo para celular desenvolvido pelo Ministério de Segurança Pública da China, para combater a fraude online por meio da triagem de chamadas e mensagens, incitou uma reação na coleta de dados que incluíam números de identificação e endereços residenciais.

Na cidade de Shenzhen, no sul da China, alguns residentes acessaram a plataforma chinesa Weibo, semelhante ao Twitter, para reclamar que as escolas pressionavam os alunos e pais a se inscreverem em um aplicativo, e os centros de vacinação em dois distritos informaram ao The Wall Street Journal que haviam sido visitados por policiais para garantir que as pessoas baixassem determinado aplicativo.

O reconhecimento facial continua sendo uma tecnologia poderosa com implicações significativas na justiça criminal e na vida cotidiana. Existem aplicações menos contenciosas de reconhecimento facial, por exemplo, tecnologia assistiva que dá suporte a pessoas com deficiência visual. Embora nos concentremos especificamente no reconhecimento de rosto neste artigo, os problemas e soluções discutidos são parte de esforços mais amplos para identificar e eliminar as desigualdades nas áreas de inteligência artificial e machine learning. Portanto, da próxima vez que desbloquearmos nossos telefones, vamos lembrar que abordar o preconceito racial no reconhecimento de rosto e suas aplicações é necessário para tornar esses algoritmos equitativos.


Referências Bibliográficas

AGÊNCIA BRASIL. Rio: programa de reconhecimento facial entra em operação no carnaval. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2019-01/rio-programa-de-reconhecimento-facial-entra-em-operacao-no-carnaval. Acesso em: 17 ago. 2021.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Brasília, DF: Presidência da República, [2018]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/ 2018/lei/L13709.htm. Acesso em: 17 ago. 2021.

G1. PM prende dois foragidos no entorno do Maracanã usando sistema de reconhecimento facial. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/09/01/mulher-e-presa-na-entrada-do-estadio-do-maracana-apos-ser-flagrada-por-sistema-de-reconhecimento-facial.ghtml. Acesso em: 17 ago. 2021.

G1. PM vai ampliar os testes com as câmeras de reconhecimento facial no Rio. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/09/01/mulher-e-presa-na-entrada-do-estadio-do-maracana-apos-ser-flagrada-por-sistema-de-reconhecimento-facial.ghtml. Acesso em: 17 ago. 2021.

G1. Sistema de reconhecimento facial da PM do RJ falha, em ulher é detida por engano. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml. Acesso em: 17 ago. 2021.

HARVARD UNIVERSITY. Racial Discrimination in Face Recognition Technology. Disponível em: https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology. Acesso em: 17 ago. 2021.

FOLHA DE SÃO PAULO. Rio e Salvador terão sistema de reconhecimento facial no Carnaval. Disponível em: https://www1.folha.uol.com.br/cotidiano/2019/02/rio-e-salvador-terao-sistema-de-reconhecimento-facial-no-carnaval.shtml. Acesso em: 19 ago. 2021.

THE WALL STREET JOURNAL. China Set to Pass One of the World’s Strictest Data-Privacy Laws. Disponível em: https://www.wsj.com/articles/china-set-to-pass-one-of-the-worlds-strictest-data-privacy-laws-11629201927?st=z5u599n8ecf0l8g&reflink=desktopwebshare_linkedin. Acesso em: 19 ago. 2021.

 

Deixe um comentário

O seu endereço de e-mail não será publicado.