A tecnologia de reconhecimento facial, que compara um rosto escaneado ou material em vídeo com uma base de dados, já é bastante usada globalmente. E temos exemplos inclusive no Brasil, quando em 2020 o recurso foi adotado por autoridades durante o carnaval. Outras cidades usam esse recurso, inclusive a Polícia Civil de São Paulo e no Ceará.
Mas tem um problema aí: o reconhecimento facial é um assunto controverso, com alguns riscos apesar dos avanços dessas ferramentas. Mas quais são exatamente esses problemas? Eles são fáceis de resolver?
E os riscos compensam o uso dessa tecnologia? Esse é o Entenda, o quadro do TecMundo que explica o que tá por trás das notícias que você lê todos os dias lá no nosso site. Aqui, vamos lidar com 4 riscos da tecnologia de reconhecimento facial, explicando cada uma delas com exemplos.
O primeiro ponto é o de falsos positivos, algo que acontece mesmo que esses sistemas utilizem o chamado aprendizado de máquina, que é o processo de inteligência artificial que consegue melhorar a identificação de faces na medida em que ele faz mais processos de reconhecimento. Basicamente, esses sistemas analisam um banco de dados de fotos e criam um “padrão” a partir de detalhes faciais. Esse código é então aplicado nas imagens em vídeo, fazendo uma varredura rápida para tentar identificar quem ali tem um padrão parecido com o das fotos.
E o falso positivo que eu digo aqui não é só você não conseguir passar em uma catraca e resolver o problema logo depois. O risco é alto quando usado por forças policiais com listas de procurados e a partir de filmagens de ruas e eventos, já que pode resultar em abordagens e até prisões de gente inocente, identificada de forma errada pela máquina. Um estudo feito em 2019 pelo Instituto Nacional de Padrões e Tecnologia, um órgão do governo dos Estados Unidos, foi o que alertou sobre essa prática.
Testes realizados detectaram tanto falsos positivos quanto falsos negativos, ou seja, o sistema não detectar que a pessoa é ela mesma. E a taxa de "falso positivo" para asiáticos e afro-americanos é até 100 vezes mais altas do que para brancos. E isso tem a ver com o segundo ponto de preocupação: a discriminação do algoritmo.
Tanto por falhas na programação dos sistemas quanto um treinamento enviesado, os sistemas acabam reproduzindo preconceitos e gerando um tratamento diferenciado para alguns grupos. O sistema Rekognition, da Amazon, antes muito usado por forças policiais nos EUA, é conhecidamente impreciso ao identificar pessoas negras, cometendo erros graves de classificação de raça e gênero. Um teste do Instituto de Tecnologia do Massachusetts feito em 2018 notou que tanto ele quanto duas plataformas rivais tinham uma taxa de erro 49 vezes maior para mulheres negras do que para homens brancos.
Boa parte desse erro fica na alimentação da base de dados: se o reconhecimento facial só estuda rostos de certos grupos, ele vai apresentar mais dificuldade para identificar e se adaptar. Ou seja, o reconhecimento facial não pode ser usado na área de segurança pública como verdade absoluta, mas como uma forma de apoio. Um humano para fazer a revisão e a tomada de decisões é essencial: não é um algoritmo que deve determinar esse tipo de coisa, já que com o tempo ele mesmo pode ficar enviesado na identificação de crimes e criminosos.
O terceiro problema é que, além de se enganar, o sistema pode ser enganado de propósito e até para fins criminosos. Isso porque, ao mesmo tempo em que a proteção contra fraudes melhorou bastante, os métodos de enganar esses sistemas também foram aprimorados. E vamos lembrar que aqui estamos falando de informações muito sensíveis, que são as características do rosto da população.
Olha esse caso de 2021 na China: um grupo conseguiu hackear o sistema de reconhecimento facial e identificação do governo chinês usando fotos e dados pessoais. Eles conseguiram gerar uma espécie de animação em 3D com as imagens, com ações como piscar e virar o rosto, enganando os sistemas com aplicativos fáceis de serem usados e informações vendidas em fóruns. Esses criminosos emitiram notas fiscais falsas para clientes de uma empresa que não existia, ganhando muito dinheiro no processo.
Por isso, chegamos no quarto problema: a falta de privacidade, o riscos de vazamento ou roubo dos dados e violação de direitos humanos. Sistemas de reconhecimento facial não pedem permissão para fazer escaneamento e combinação com bases de fotos. Isso significa que governos autoritários podem usar os dados para perseguir opositores e grupos vulneráveis, ou então os dados podem ser armazenados e distribuídos ou vazados.
Esse tipo de padrão pode ser usado não só como no caso da China, que a gente citou, mas até na criação de deepfakes, que são vídeos com “máscaras” de outras pessoas. Como todo o setor praticamente não tem regulação, as empresas ou governos isolados aos poucos implementam políticas ou fazem exigências maiores, mas tudo ainda está bem no começo. E quem começou a dar alguns desses passos foram as empresas de tecnologia.
A IBM abandonou de vez as pesquisas com reconhecimento facial. O Facebook anunciou que desativaria o recurso na rede social depois de vários anos, parando de identificar e marcar pessoas em fotos. A Amazon, por sua vez, proibiu o uso da tecnlogia por forças policiais depois de protestos.
Em resumo, essa tecnologia não é perfeita e não pode ser utilizada como se fosse. E foi meio que o que aconteceu, com empresas e governos adotando equipamentos e plataformas que ainda precisavam de refinamento. Eu não tô dizendo aqui que é pra abandonar tudo isso de vez: ela tem muito potencial, pode sim ajudar em muitos casos e modernizar diversos processos.
Mas é preciso, antes de aplicar ela em massa, reconhecer e lidar com esses riscos para evitar problemas maiores no futuro. E aí, o que você acha do uso da tecnologia de reconhecimento facial? Já passou por problemas com esse tipo de recurso?
O que precisa ser feito para que esses riscos sejam pelo menos diminuídos? Vamos conversar aqui embaixo nos comentários! Não se esqueça de deixar o seu joinha no vídeo, assine o canal para mais conteúdos como esse e confira a playlist do Entenda para saber do que a gente já falou por aqui.
Até a próxima!