PUBLICIDADE

Em um mês, China escaneia 500 mil rostos, usando IA para traçar o perfil de uma minoria étnica

É o primeiro exemplo conhecido de um governo que usa intencionalmente a inteligência artificial para traçar um perfil com base em características raciais, dizem especialistas

Por Paul Mozur
Atualização:
A SenseTime é uma das empresas chinesas desenvolvendo tecnologia reconhecimento facial Foto: Gilles Sabri/The New York Times

O governo chinês atraiu para si uma ampla condenação internacional pela dura repressão que mantém contra os muçulmanos étnicos em sua região ocidental, inclusive mantendo até um milhão deles em campos de detenção.

PUBLICIDADE

Agora, documentos e entrevistas revelam que as autoridades também estão recorrendo a um vasto e secreto sistema de reconhecimento facial para rastrear e controlar os uigures, uma minoria majoritariamente muçulmana. É o primeiro exemplo conhecido de um governo que usa intencionalmente a inteligência artificial para traçar um perfil com base em características raciais, disseram especialistas.

A tecnologia de reconhecimento facial, integrada às redes de câmeras de vigilância em rápida expansão da China, procura exclusivamente os uigures com base em sua aparência e mantém registros de suas idas e vindas para busca e revisão. A prática faz com que a China seja pioneira na aplicação da tecnologia de próxima geração para observar seu povo, potencialmente inaugurando uma nova era de racismo automatizado.

A tecnologia e seu uso para monitorar os 11 milhões de uigures da China foram descritos por cinco pessoas com conhecimento direto dos sistemas, que pediram anonimato porque temiam a represálias. O New York Times também revisou os bancos de dados usados pela polícia, documentos de compras governamentais e materiais de publicidade distribuídos pelas empresas de IA que fazem os sistemas.

As autoridades chinesas já mantêm uma vasta rede de vigilância, incluindo o rastreamento do DNA das pessoas, na região oeste de Xinjiang, que muitos uigures chamam de lar. Mas a abrangência dos novos sistemas, anteriormente não relatados, estende esse monitoramento para muitos outros cantos do país.

A polícia está agora usando a tecnologia de reconhecimento facial para mirar os uigures em ricas cidades do leste como Hangzhou e Wenzhou e na província costeira de Fujian, disseram duas das pessoas. As autoridades policiais da cidade de Sanmenxia, no centro da China, ao longo do rio Amarelo, administraram um sistema que, ao longo de um mês deste ano, verificou se os habitantes eram uigures 500 mil vezes.

Documentos policiais mostram que a demanda por tal capacitação está se disseminando. Quase duas dúzias de departamentos policiais em 16 diferentes províncias e regiões da China buscaram essa tecnologia desde 2018, de acordo com documentos de aquisições. Autoridades policiais da província central de Shaanxi, por exemplo, tinha como meta adquirir um sistema de câmeras inteligentes no ano passado que "deveria dar suporte ao reconhecimento facial para identificar atributos Uigur/não-Uigur".

Publicidade

Cidadãos em Kashgar, na região deXinjiang, fazem fila para passarem por ponto de identificação Foto: Paul Mozur/The New York Times

Alguns departamentos de polícia e empresas de tecnologia descreveram a prática como “identificação de minorias”, embora três das pessoas tenham dito que a frase era um eufemismo para uma ferramenta que procurava identificar exclusivamente os uigures. Os uigures frequentemente parecem distintos da maioria da população Han da China, que mais se assemelham às pessoas da Ásia Central. Essas diferenças tornam mais fácil para o software selecioná-las.

Durante décadas, as democracias tiveram quase o monopólio da tecnologia de ponta. Hoje, uma nova geração de startups, atendendo às necessidades autoritárias de Pequim, começa a dar o tom para tecnologias emergentes, como a inteligência artificial. Ferramentas semelhantes poderiam automatizar preconceitos baseados na cor da pele e na etnia em qualquer lugar.

“Tome a aplicação mais arriscada dessa tecnologia, e existem boas chances de que alguém a experimente”, disse Clare Garvie, um associado do Centro de Privacidade e Tecnologia da Georgetown Law. “Se você fizer uma tecnologia que possa classificar pessoas por uma etnia, alguém a usará para reprimir essa etnia".

Do ponto de vista tecnológico, usar algoritmos para rotular pessoas com base em raça ou etnia tornou-se relativamente simples. Empresas como a IBM anunciam softwares que podem classificar as pessoas em grupos amplos.

PUBLICIDADE

Mas a China inovou identificando um grupo étnico para fins de aplicação da lei. Uma startup chinesa, a CloudWalk, descreveu uma amostra de experiência em marketing de seus próprios sistemas de vigilância. A tecnologia, segundo disseram, poderia reconhecer “grupos sensíveis de pessoas”.

“Se originalmente um uigure mora em um bairro, e no período de 20 dias seis uigures aparecem”, dizia em seu site, o equipamento “envia imediatamente alarmes” para a polícia.

Na prática, os sistemas são imperfeitos, disseram duas pessoas. Muitas vezes, sua precisão depende de fatores ambientais, como iluminação e posicionamento de câmeras.

Publicidade

Debate. Nos Estados Unidos e na Europa, o debate na comunidade de inteligência artificial se concentrou nos preconceitos inconscientes daqueles que projetam a tecnologia. Testes recentes mostraram que os sistemas de reconhecimento facial feitos por empresas como a IBM e a Amazon eram menos precisos para identificar as características das pessoas de pele mais escura.

Os esforços da China levantam questões mais duras. Enquanto a tecnologia de reconhecimento facial usa aspectos como formas de rosto e tom de pele para classificar imagens em fotos ou vídeos, deve ser dito pelos humanos como classificar as pessoas com base nas definições sociais de raça ou etnia. A polícia chinesa, com a ajuda das startups, fez isso.

“É algo que parece chocante vindo dos EUA, onde há muito o provavelmente racismo embutido em nossa tomada de decisão algorítmica, mas não de uma forma tão aberta como esta”, disse Jennifer Lynch, diretora de litígios relacionados com vigilância da Electronic Frontier Foundation. “Não existe um sistema projetado para identificar alguém como afro-americano, por exemplo."

As empresas de IA chinesas por trás do software incluem Yitu, Megvii, SenseTime e CloudWalk, cada uma delas avaliada em mais de US$ 1 bilhão. Outra empresa, a Hikvision, que vende câmeras e software para processar as imagens, apresentou uma função de reconhecimento de minorias, mas começou a desativá-las gradativamente em 2018, de acordo com uma das pessoas.

As avaliações das empresas dispararam em 2018, quando o Ministério de Segurança Pública da China, sua principal agência policial, reservou bilhões de dólares sob dois planos do governo, chamados Skynet e Sharp Eyes, para informatizar a coleta de vigilância, policiamento e inteligência.

Em um comunicado, uma porta-voz da SenseTime disse que verificou com “equipes relevantes”, que não sabiam que sua tecnologia estava sendo usada para traçar perfis. A Megvii disse em comunicado que estava focada em “soluções comerciais e não políticas”, acrescentando que “estamos preocupados com o bem-estar e a segurança de cidadãos individuais, não com monitoramento de grupos”. A CloudWalk e a Yitu não responderam aos pedidos de comentários.

O Ministério de Segurança Pública da China não respondeu a um pedido de comentários enviado por fax.

Publicidade

Registros. Vendendo produtos com nomes como Fire Eye, Sky Eye e Dragonfly Eye, as startups prometem usar a inteligência artificial para analisar imagens das câmeras de vigilância da China. A tecnologia ainda não está madura - em 2017, a Yitu teve uma taxa de sucesso de um em três quando a polícia respondeu a seus alarmes em uma estação de trem - e muitas das câmeras da China não são suficientemente potentes para que o software de reconhecimento facial funcione de forma eficaz.

No entanto, eles ajudam a promover a estrutura chinesa de controle social. Para que os algoritmos funcionem, a polícia montou bancos de dados de imagens faciais para pessoas com registros criminais, doenças mentais, registro de uso de drogas e aqueles que apresentaram petições ao governo sobre queixas, de acordo com duas das pessoas e documentos de aquisição. Um banco nacional de dados sobre criminosos em geral inclui cerca de 300 mil rostos, enquanto uma lista de pessoas com histórico de uso de drogas na cidade de Wenzhou totaliza oito mil rostos, disseram eles.

Câmera de segurança em região reconstruída na cidade deKashgar Foto: Thomas Peter/Reuters

Usando um processo chamado aprendizado de máquina, os engenheiros fornecem dados aos sistemas de inteligência artificial para treiná-los a reconhecer padrões ou características. No caso do processo de análise do perfil, eles forneceriam milhares de imagens rotuladas de uigures e não-uigures. Isso ajudaria a gerar uma função para distinguir o grupo étnico.

As empresas de IA receberam dinheiro de grandes investidores. A Fidelity International e a Qualcomm Ventures fizeram parte de um consórcio que investiu US$ 620 milhões no SenseTime. A Sequoia investiu na Yitu. A Megvii é apoiada pela Sinovation Ventures, o fundo do conhecido investidor chinês de tecnologia Kai-Fu Lee.

Uma porta-voz da Sinovation disse que o fundo vendeu recentemente parte de sua participação na Megvii e renunciou ao seu assento no conselho. A Fidelity se recusou a comentar. A Sequoia e a Qualcomm não responderam a solicitações de comentários por e-mail.

Lee, um incentivador da inteligência artificial chinesa, argumentou que a China tem uma vantagem no desenvolvimento da inteligência artificial, porque seus líderes são menos ocupados por “complexidades legais” ou “consenso moral”.

“Não somos espectadores passivos na história da IA - somos os autores dela”, escreveu Lee no ano passado. “Isso significa que os valores que sustentam nossas visões de um futuro de IA podem se tornar profecias autorrealizáveis.” Ele se recusou a comentar sobre o investimento de seu fundo na Megvii ou suas práticas.

Publicidade

A criação do perfil étnico dentro da indústria de tecnologia da China não é um segredo, disseram as pessoas. Tornou-se tão comum que uma das pessoas o comparou à tecnologia sem fio de curto alcance Bluetooth. Os funcionários da Megvii foram alertados sobre a sensibilidade de discutir publicamente a segmentação étnica, disse outra pessoa.

A China dedicou recursos importantes para rastrear os uigures, citando a violência étnica nos ataques terroristas de Xinjiang e Uighur em outros lugares. Pequim lançou centenas de milhares de uigures e outros em Xinjiang em campos de reeducação.

O software amplia a capacidade do estado de rotular os uigures para o resto do país. Um banco de dados nacional armazena os rostos de todos os uigures que deixam Xinjiang, segundo duas pessoas.

Documentos de compras governamentais dos últimos dois anos também mostram que a demanda se espalhou. Na cidade de Yongzhou, no sul da província de Hunan, os policiais procuraram um software para "caracterizar e pesquisar se alguém é uigur ou não”, segundo um documento.

Em dois condados da província de Guizhou, a polícia listou a necessidade de classificação uigur. Um deles solicitou a capacidade de reconhecer os uigures com base em fotos de identificação com uma capacidade de precisão superior a 97%. Na megacidade central de Chongqing e na região do Tibete, a polícia lançou propostas para software similar. E um documento de licitação para a província de Hebei descreveu como a polícia deveria ser notificada quando vários uigures reservavam o mesmo voo no mesmo dia.

Um estudo realizado em 2018 pelas autoridades descreveu um uso para outros tipos de bancos de dados. Co-escrito por um policial de Xangai, o jornal disse que os sistemas de reconhecimento facial instalados perto das escolas poderiam rastrear pessoas incluídas em bancos de dados de doentes mentais ou suspeitos de crimes.

Policial à paisana emKashgar, China Foto: Paul Mozur/The New York

Um banco de dados gerado pelo software Yitu e revisado pelo The Times mostrou como a polícia na cidade de Sanmenxia usou software que roda em câmeras para tentar identificar moradores mais de 500 mil vezes durante cerca de um mês começando em meados de fevereiro.

Publicidade

Incluído no código ao lado de identificadores como "rec_gender" (gravar sexo) e "rec_sunglasses" (gravar óculos de sol) estava "rec_uygur" (gravar uigur), que voltava para o 1 se o software acreditasse ter encontrado um uigur. Dentro do meio milhão de identificações que as câmeras tentaram gravar, o software calculou ter visto Uigures 2.834 vezes. Imagens armazenadas ao lado da entrada permitiriam que a polícia checasse novamente.

Yitu e seus rivais têm ambições de se expandir no exterior. Tal iniciativa poderia facilmente colocar software de perfil étnico nas mãos de outros governos, disse Jonathan Frankle, pesquisador de IA do Instituto de Tecnologia de Massachusetts.

“Não acredito que seja exagero tratar isso como uma ameaça existencial à democracia”, disse Frankle. “Uma vez que um país adota um modelo autoritário tão pesado, ele está usando dados para reforçar o pensamento e as regras de uma forma muito mais profunda do que a que poderia ser alcançada há 70 anos na União Soviética. Nesta medida, esta é uma crise urgente na qual estamos entrando vagarosamente como sonâmbulos.” /TRADUÇÃO DE CLAUDIA BOZZO

Comentários

Os comentários são exclusivos para assinantes do Estadão.