Alerta: as tecnologias de reconhecimento facial estão nos
ameaçando (Foto: Spencer Whalen / EyeEm // Getty Images)
Alerta:
as tecnologias de reconhecimento facial estão nos ameaçando
Por Dora
Kaufman
Inúmeros casos têm sido relatados globalmente
sobre erro de identificação

No carnaval de 2019, fato
amplamente divulgado, o sistema de reconhecimento facial da polícia baiana
localizou e prendeu um criminoso fantasiado de mulher no circuito Dodô. A
polícia do Rio de Janeiro, em 2018, contratou o sistema britânico “Facewatch” com
o propósito de identificar 1.100 criminosos ao cruzarem as câmaras de
segurança; segundo anunciado, o sistema vem sendo utilizado no Reino Unido há
cerca de sete anos e conta com 30 mil câmeras espalhadas pelo país.
As tecnologias de reconhecimento facial
são tecnologias de inteligência artificial, especificamente a técnica de deep
learning cujos resultados, como todo modelo estatístico de probabilidade, não
são precisos. O Instituto Nacional de Padrões e Tecnologia dos EUA (Nist, na sigla em inglês), indicou que entre
2014 - 2018 a precisão passou de 96% para 99,8%, mas em condições especiais
testadas em laboratórios.
Inúmeros casos têm sido
relatados globalmente sobre erro de identificação, alguns com danos
relevantes como o recente caso no Rio de Janeiro (julho/2019): uma mulher foi
detida por engano em Copacabana e levada à delegacia do bairro, após as câmeras
de reconhecimento facial darem positivo. Em paralelo, como não poderia deixar
de ser, surgem soluções para “enganar" os sistemas de reconhecimento
facial, denominadas deep learning adversarial, provocam uma “ilusão de
ótica" nas máquinas.
Proliferam câmaras de
vigilância, em espaços públicos e privados, sem a necessária consciência da
sociedade sobre os riscos. Elas captam nossa imagem nos aeroportos - o
Departamento de Segurança Interna dos EUA estima que o reconhecimento facial
examinará 97% dos passageiros de companhias aéreas até 2023 -, metros, espaços
comerciais, dispositivos digitais. Estão implantadas, ou em vias de, em
escolas, transportes públicos, locais de trabalho, unidades de saúde e nas ruas
de algumas cidades e/ou regiões.
Inúmeros
casos têm sido relatados globalmente sobre erro de identificação (Foto: Scharfsinn86
// Getty Images)
A potencial ameaça à
privacidade tem suscitado fortes reações contrárias. Em 14 de maio último, São
Francisco tornou-se a primeira cidade dos EUA a proibir
o uso dessa tecnologia pela política e outros órgãos da administração. A
medida, determinada pelo Conselho de Supervisores da cidade em votação de 8 x
1, determina igualmente que todos os departamentos divulguem as tecnologias de
vigilância utilizadas ou em processo de desenvolvimento, e definam políticas a
respeito a serem aprovadas pelo Conselho. Em julho, o conselho municipal de
Oakland, também na Califórnia, votou a favor de uma lei que proíba o uso da
tecnologia de reconhecimento facial pelas agências públicas, formando com
Somerville, em Massachusetts, a terceira cidade americana a aprovar leis
semelhantes em 2019.
Em
setembro, o Ada Lovelace Institute (Ada), órgão inglês de pesquisa
independente, divulgou os resultados de uma enquete realizada no Reino Unido
sobre a percepção do público com relação ao uso de tecnologia de reconhecimento
facial, indicando que (1) 90% dos ingleses está consciente do uso da
tecnologia, mas apenas 53% admite conhecer do que se trata; (2) 46% da
população acredita que seja seu direito consentir ou não sobre a captação e uso
de sua imagem, percentual que sobe para 56% entre as minorias étnicas; (3) em
geral, os ingleses estão dispostos a aceitar o reconhecimento facial em larga
escala se houver um benefício explícito, sendo que 70% acha que deve ser
permitida para uso da polícia em investigações criminais; (4) 67% não se sente
confortável com o seu uso nas escolas e 61% não se sente confortável com o seu
uso nos transportes públicos; (5) os ingleses esperam regulamentação
governamental, salvaguardas e limitações no uso policial, sendo que 55% defende
que o uso da tecnologia seja limitado à circunstâncias específicas; e (6)
majoritariamente, os ingleses não confiam no setor privado no uso ético do
reconhecimento facial, sendo que 77% não se sente confortável com o uso em
lojas para rastrear clientes, e 76% por departamentos de RH no recrutamento de
candidatos para empregos de nível inicial. Cresce o debate público na
Inglaterra sobre aspectos éticos dessas tecnologias, acompanhado de protestos,
críticas políticas e processos legais; existe um clamor social contra a
ausência de consultas públicas adequadas.
Em agosto de 2020, entra em
vigor no Brasil a LGPD (Lei Geral de Proteção de Dados) que, se ainda não está
comprovada sua capacidade de fiscalização, já representa um avanço pelo simples
fato de existir um arcabouço legal sobre o uso de dados pessoais.
Antecipando-se aos termos da lei, em fevereiro último, o Instituto Brasileiro
de Defesa do Consumidor (Idec) notificou a varejista de roupas Hering para que
explicasse a finalidade dos dados captados em sua loja do Morumbi Shopping, SP:
câmeras com tecnologia de reconhecimento facial captam as reações dos clientes
às peças expostas nas araras e, em paralelo, sensores identificam suas
preferências ao circularem pela loja. O mesmo Instituto, em 2018, processou a
ViaQuatro, concessionária da linha 4-Amarela do Metrô de SP pelo uso de
sensores com tecnologia de reconhecimento facial nos seus painéis
publicitários; a Justiça determinou a suspensão imediata do uso dessa
tecnologia alegando a falta de transparência sobre a finalidade, tratamento e
uso das imagens (dados).
Os
modelos de negócio emergentes são, em parte, baseados em dados, em captar e
extrair informações valiosas dos dados, o que gera uma inédita relação entre
ética e os negócios, deixando de ser associada à imagem de marca, e passando a
fazer parte dos processos e dos resultados financeiros e comerciais.
*Dora Kaufman
é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com
período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de
Gulliver: os desafios das empresas nas redes digitais” (2017), e “A
inteligência artificial irá suplantar a inteligência humana?” (2019).
Professora convidada da FDC e professora PUC-SP.
Comentários
Postar um comentário