'Profeta' do escândalo do Facebook faz alerta sobre reconhecimento facial

Professor polonês previu mecanismo que levou ao caso Cambridge Analytica; agora, se preocupa com uso de inteligência artificial para reconhecimento de rostos humanos

PUBLICIDADE

Foto do author Bruno Romani
Por Bruno Romani
Atualização:
Kosinskialerta para o uso de IA para monitorar cidadãos, especialmente dentro de características psicológicas Foto: Gorm K. Gaare

Michal Kosinski sabe que causa controvérsia. Psicólogo e professor assistente da Universidade Stanford, o polonês de 37 anos descreveu, anos antes de ser descoberto, o mecanismo por trás da maior crise da história do Facebook. Em artigo de 2013, ele chamou atenção para o uso de curtidas e testes para decifrar a personalidade de uma pessoa. A estratégia foi usada pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016. De profeta, Kosinski passou a ser considerado cúmplice na manobra. Agora, faz novo alerta: abusos no uso de inteligência artificial (IA) para reconhecimento de rostos humanos. 

PUBLICIDADE

“Empresas e governos estão usando tecnologia para identificar não só as pessoas, mas também características e estados psicológicos, causando riscos sérios à privacidade”, diz o pesquisador, em entrevista exclusiva ao Estado. Nos últimos anos, ele tem dedicado seus estudos a mostrar como a tecnologia de reconhecimento facial pode ser usada para discriminar pessoas. Para exemplificar, escolheu uma abordagem espinhosa: mostrar que um algoritmo pode olhar para fotos de pessoas em redes sociais e adivinhar sua orientação sexual com precisão maior do que humanos fariam. 

Cara a cara

No estudo, o polonês utilizou um algoritmo de reconhecimento facial disponível de graça na internet, o VGG Face. O sistema foi alimentado com 35 mil fotos de rostos encontradas em redes sociais. A máquina tinha um desafio: ao ser apresentada a um par de fotos, com uma imagem de um heterossexual e uma de um homossexual, ela deveria ser capaz de apontar qual das pessoas tinha a maior probabilidade de ser gay. 

A máquina teve taxa de acerto de 81% no caso de homens e 71% no caso de mulheres – já julgadores humanos tiveram 61% e 54%, respectivamente. Ao analisar cinco fotos das mesmas pessoas, a precisão da máquina subiu para 91% (homens) e 83% (mulheres).  “O estudo não tenta entender o que causa diferenças entre gays e héteros, mas mostrar que há mecanismos que trabalham para isso, como o fato de que características psicológicas e sociais afetam nossa aparência”, explica Kosinski. “Para os humanos, é difícil detectá-las, mas os algoritmos são muito sensíveis e podem fazer previsões precisas.”

Publicados em 2017 na revista The Economist, os resultados da pesquisa provocaram polêmica. Dois grupos LGBTQ+ dos EUA, o Human Rights Campaign e o Glaad, consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito. 

Monitoramento por reconhecimento facial já ocorre na China e influencia até na obtenção de crédito e na permissão de viagens Foto: Reuters

Para Kosinski, há paralelos na reação das pessoas entre seu estudo sobre o Facebook e sobre reconhecimento facial. “Quando alertei para o monitoramento de curtidas, as pessoas riram dos meus resultados. Ao descobrir sobre a Cambridge Analytica, passaram a me levar a sério”, conta. “De repente, começaram a me culpar por alertar sobre o problema, mesmo não sendo o autor dessa tecnologia.” Mas é difícil ignorar sua conexão com o caso.

Publicidade

A mudança de foco do pesquisador acompanha as tendências da internet, como o crescimento da interação baseada em imagens. Um exemplo é o Instagram, maior rede social de fotos e vídeos do mundo. Entre 2013 e 2018, a plataforma, que também é do Facebook, cresceu mais de dez vezes e hoje tem mais de 1 bilhão de usuários compartilhando selfies e fotos de amigos em todo o mundo. 

Perdas e danos

O polonês não se importa com as reações e crê ter atingido seu objetivo: mostrar a facilidade de se construir um algoritmo capaz de estabelecer conclusões como a orientação sexual, religiosa ou política de uma pessoa.

Independentemente de estarem certos ou errados, sistemas com essa missão podem gerar danos à sociedade se forem usados. “Há startups e companhias que oferecem previsões básicas gratuitas na internet. É uma tecnologia acessível – e pode estar em aeroportos ou postos de fiscalização de imigrantes”, diz.

Há até lugares em que isso já está sendo posto em prática: na China, há relatos de que o governo usa reconhecimento facial para catalogar e vigiar os uighurs, uma minoria étnica muçulmana. Já cidadãos chineses são monitorados para a obtenção de crédito pessoal.

“Não dá para a sociedade se transformar numa sociedade preditiva, na qual não posso ter um emprego por ter 72% de chance de ter determinado comportamento”, avalia Sérgio Amadeu, professor da Universidade Federal do Grande ABC (UFABC). “Isso retira das pessoas, bem como da sociedade, a capacidade de livre arbítrio.” 

Ética

Publicidade

Para especialistas em IA ouvidos pelo Estado, o nível de apuro tecnológico da pesquisa de Kosinski não surpreende. “São resultados preliminares. É possível até melhorar a precisão do algoritmo”, diz Alexandre Chiavegatto Filho, professor da USP e especialista em tecnologia na saúde. Não é algo que está nos planos do polonês: para ele, o que fez foi suficiente para jogar luz no problema. A discussão do trabalho, porém, está longe de ser enterrada. 

“Escolher estudar padrões ligados a assuntos íntimos, como orientação sexual, com base no rostos das pessoas parece bastante assustador”, diz Walter Carnielli, diretor do Centro de Lógica, Epistemologia e História da Ciência da Unicamp e pesquisador associado ao Advanced Institute for Artificial Intelligence (AI2). Para Chiavegatto, da USP, o tiro do polonês pode sair pela culatra. “É uma pesquisa que mostra para o Irã e outros governos totalitários que é possível e simples aplicar essa tecnologia. É preciso pensar nas consequências.” 

Em altaLink
Loading...Loading...
Loading...Loading...
Loading...Loading...

Lá fora a questão é bem discutida: antevendo cenários distópicos, a cidade de São Francisco (EUA) proibiu, há duas semanas, o uso governamental de reconhecimento facial em locais públicos. Kosinski concorda que a proibição não é um bom caminho para a tecnologia. Aqui no Brasil, o mais próximo disso são audiências públicas sobre o uso de reconhecimento facial e de inteligência artificial. 

Enquanto isso, Kosinski se prepara para tocar as trombetas de um novo apocalipse tecnológico. Hoje, ele trabalha em novo artigo sobre reconhecimento facial. Desta vez, tenta demonstrar como a tecnologia pode ser usada para estimar visões políticas. A expectativa é publicar o trabalho até o final do ano, antes de uma nova corrida presidencial começar nos EUA. Ele sabe que deve gerar controvérsia – de novo. “Se as pessoas entenderem os riscos, tudo bem: meu trabalho terá sido bem feito.” 

Comentários

Os comentários são exclusivos para assinantes do Estadão.