Kosinski alerta para o uso de IA para monitorar cidadãos, especialmente dentro de características psicológicas
Michal Kosinski sabe que causa controvérsia. Psicólogo e professor assistente da Universidade Stanford, o polonês de 37 anos descreveu, anos antes de ser descoberto, o mecanismo por trás da maior crise da história do Facebook. Em artigo de 2013, ele chamou atenção para o uso de curtidas e testes para decifrar a personalidade de uma pessoa. A estratégia foi usada pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016. De profeta, Kosinski passou a ser considerado cúmplice na manobra. Agora, faz novo alerta: abusos no uso de inteligência artificial (IA) para reconhecimento de rostos humanos.
“Empresas e governos estão usando tecnologia para identificar não só as pessoas, mas também características e estados psicológicos, causando riscos sérios à privacidade”, diz o pesquisador, em entrevista exclusiva ao Estado. Nos últimos anos, ele tem dedicado seus estudos a mostrar como a tecnologia de reconhecimento facial pode ser usada para discriminar pessoas. Para exemplificar, escolheu uma abordagem espinhosa: mostrar que um algoritmo pode olhar para fotos de pessoas em redes sociais e adivinhar sua orientação sexual com precisão maior do que humanos fariam.
Cara a cara
No estudo, o polonês utilizou um algoritmo de reconhecimento facial disponível de graça na internet, o VGG Face. O sistema foi alimentado com 35 mil fotos de rostos encontradas em redes sociais. A máquina tinha um desafio: ao ser apresentada a um par de fotos, com uma imagem de um heterossexual e uma de um homossexual, ela deveria ser capaz de apontar qual das pessoas tinha a maior probabilidade de ser gay.
A máquina teve taxa de acerto de 81% no caso de homens e 71% no caso de mulheres – já julgadores humanos tiveram 61% e 54%, respectivamente. Ao analisar cinco fotos das mesmas pessoas, a precisão da máquina subiu para 91% (homens) e 83% (mulheres).
“O estudo não tenta entender o que causa diferenças entre gays e héteros, mas mostrar que há mecanismos que trabalham para isso, como o fato de que características psicológicas e sociais afetam nossa aparência”, explica Kosinski. “Para os humanos, é difícil detectá-las, mas os algoritmos são muito sensíveis e podem fazer previsões precisas.”
Publicados em 2017 na revista The Economist, os resultados da pesquisa provocaram polêmica. Dois grupos LGBTQ+ dos EUA, o Human Rights Campaign e o Glaad, consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito.
Monitoramento por reconhecimento facial já ocorre na China e influencia até na obtenção de crédito e na permissão de viagens
Para Kosinski, há paralelos na reação das pessoas entre seu estudo sobre o Facebook e sobre reconhecimento facial. “Quando alertei para o monitoramento de curtidas, as pessoas riram dos meus resultados. Ao descobrir sobre a Cambridge Analytica, passaram a me levar a sério”, conta. “De repente, começaram a me culpar por alertar sobre o problema, mesmo não sendo o autor dessa tecnologia.” Mas é difícil ignorar sua conexão com o caso.
A mudança de foco do pesquisador acompanha as tendências da internet, como o crescimento da interação baseada em imagens. Um exemplo é o Instagram, maior rede social de fotos e vídeos do mundo. Entre 2013 e 2018, a plataforma, que também é do Facebook, cresceu mais de dez vezes e hoje tem mais de 1 bilhão de usuários compartilhando selfies e fotos de amigos em todo o mundo.
Perdas e danos
O polonês não se importa com as reações e crê ter atingido seu objetivo: mostrar a facilidade de se construir um algoritmo capaz de estabelecer conclusões como a orientação sexual, religiosa ou política de uma pessoa.
Independentemente de estarem certos ou errados, sistemas com essa missão podem gerar danos à sociedade se forem usados. “Há startups e companhias que oferecem previsões básicas gratuitas na internet. É uma tecnologia acessível – e pode estar em aeroportos ou postos de fiscalização de imigrantes”, diz.
Há até lugares em que isso já está sendo posto em prática: na China, há relatos de que o governo usa reconhecimento facial para catalogar e vigiar os uighurs, uma minoria étnica muçulmana. Já cidadãos chineses são monitorados para a obtenção de crédito pessoal.
“Não dá para a sociedade se transformar numa sociedade preditiva, na qual não posso ter um emprego por ter 72% de chance de ter determinado comportamento”, avalia Sérgio Amadeu, professor da Universidade Federal do Grande ABC (UFABC). “Isso retira das pessoas, bem como da sociedade, a capacidade de livre arbítrio.”
Ética
Para especialistas em IA ouvidos pelo Estado, o nível de apuro tecnológico da pesquisa de Kosinski não surpreende. “São resultados preliminares. É possível até melhorar a precisão do algoritmo”, diz Alexandre Chiavegatto Filho, professor da USP e especialista em tecnologia na saúde. Não é algo que está nos planos do polonês: para ele, o que fez foi suficiente para jogar luz no problema. A discussão do trabalho, porém, está longe de ser enterrada.
“Escolher estudar padrões ligados a assuntos íntimos, como orientação sexual, com base no rostos das pessoas parece bastante assustador”, diz Walter Carnielli, diretor do Centro de Lógica, Epistemologia e História da Ciência da Unicamp e pesquisador associado ao Advanced Institute for Artificial Intelligence (AI2). Para Chiavegatto, da USP, o tiro do polonês pode sair pela culatra. “É uma pesquisa que mostra para o Irã e outros governos totalitários que é possível e simples aplicar essa tecnologia. É preciso pensar nas consequências.”
Lá fora a questão é bem discutida: antevendo cenários distópicos, a cidade de São Francisco (EUA) proibiu, há duas semanas, o uso governamental de reconhecimento facial em locais públicos. Kosinski concorda que a proibição não é um bom caminho para a tecnologia. Aqui no Brasil, o mais próximo disso são audiências públicas sobre o uso de reconhecimento facial e de inteligência artificial.
Enquanto isso, Kosinski se prepara para tocar as trombetas de um novo apocalipse tecnológico. Hoje, ele trabalha em novo artigo sobre reconhecimento facial. Desta vez, tenta demonstrar como a tecnologia pode ser usada para estimar visões políticas. A expectativa é publicar o trabalho até o final do ano, antes de uma nova corrida presidencial começar nos EUA. Ele sabe que deve gerar controvérsia – de novo. “Se as pessoas entenderem os riscos, tudo bem: meu trabalho terá sido bem feito.”
Entenda o escândalo do uso de dados do Facebook pela Cambridge Analytica
O primeiro capítulo da polêmica aconteceu em 16 de março, uma sexta-feira, quando o Facebook suspendeu a consultoria Cambridge Analytica, conhecida por participar da campanha de Donald Trump à presidência dos Estados Unidos, de sua plataforma. A manobra aconteceu três anos depois que o Facebook descobriu que a consultoria havia obtido dados de forma ilícita de seus usuários – em 2015, porém, o Facebook apenas pediu que a empresa deletasse esses dados e acreditou quando a Cambridge Analytica, presidida por Alexander Nix (foto) afirmou que o tinha feito.
No dia seguinte, os jornais The Observer e The New York Times publicaram as reportagens que revelaram o escândalo a partir de revelações feitas pelo informante Christopher Wylie: dados de 50 milhões de usuários tinham sido obtidos a partir do quiz This is Your Digital Life, do pesquisador da Universidade de Cambridge Aleksandr Kogan. Kogan, por sua vez, os teria repassado á Cambridge Analytica. A suspensão do dia anterior teria sido uma forma do Facebook se adiantar às reportagens – na época, a empresa ameaçou os jornais com processos.
No primeiro dia útil após a revelação dos escândalos, o Facebook perdeu US$ 36 bilhões em valor de mercado após ver suas ações caírem 6,7%, com fuga de investidores preocupados com a repercussão do caso.
No dia seguinte, Mark Zuckerberg começou a ser convocado para prestar esclarecimentos nos EUA e no Reino Unido sobre o assunto; em paralelo, governos ao redor do mundo começam a discutir regulamentação especial para o Facebook e outras empresas de internet. Enquanto isso, o presidente executivo da rede social segue em silêncio.
No mesmo dia, começou a ganhar força o movimento #deleteFacebook – a hashtag publicada em redes sociais conclamava os usuários a abandonarem a rede social. Entre as pessoas que aderiram ao movimento estava Brian Acton, cofundador do WhatsApp, aplicativo de mensagens que foi adquirido em 2014 pela empresa de Mark Zuckerberg por US$ 19 bilhões.
Pela primeira vez, o presidente executivo da Cambridge Analytica, Alexander Nix, admitiu que sua empresa pode ter influenciado drasticamente os resultados das eleições nos Estados Unidos – a consultoria política teria trabalhado em prol do candidato republicano e hoje presidente americano, Donald J. Trump.
No dia 21 de março, Zuckerberg falou pela primeira vez sobre o caso, assumiu a responsabilidade pelos erros cometidos e pediu desculpas aos usuários. Ele ainda esclareceu a situação e divulgou que o Facebook estava mudando suas políticas de acesso de dados de usuários para aplicativos parceiros. As ações da empresa, porém, seguiram em queda.
André Torretta, executivo de marketing político brasileiro, havia assinado uma parceria com a Cambridge Analytica para atuar nas eleições de 2018 no Brasil. Ao saber do escândalo, a parceria foi desfeita, mas o Ministério Público do Distrito Federal e Territórios (MP-DFT) abriu uma investigação para entender qual o envolvimento de Torretta com a Cambridge Analytica – e se ferramentas parecidas tinham sido usadas no Brasil.
Elon Musk, fundador da Space X e da Tesla, foi outro que aderiu ao #deleteFacebook, após ser desafiado por um usuário no Twitter; enquanto isso, a Câmara dos Deputados dos EUA convidou Mark Zuckerberg, bem como outros executivos da área de tecnologia, a depor.
Em meio ao escândalo, uma nova revelação: o Facebook coletou registros de chamadas e mensagens enviadas por SMS feitas por usuários de Android nos últimos anos, a partir do aplicativo de mensagens Facebook Messenger. A coleta foi percebida por usuários da rede social neste domingo, 25, e confirmado pela empresa horas depois. A comprovação foi possível porque a rede social permite que qualquer usuário faça um download dos dados armazenados pela empresa na plataforma.
No dia 26 de março, as ações do Facebook voltaram a despencar, depois que a autoridade regulatória de comércio dos Estados Unidos (FTC, na sigla em inglês) anunciou que estava oficialmente investigando a empresa por uma quebra de contrato – em 2011, a rede social e a agência assinaram um acordo dizendo que a empresa deveria proteger os dados de seus usuários. Com a revelação do escândalo da Cambridge Analytica, a FTC agora apura se o Facebook feriu os termos do pacto.
Além de pedir desculpas publicamente, o Facebook também começou a se esforçar para realizar mudanças na rede social a fim de convencer usuários, investidores e reguladores de que estava tudo bem. Uma das principais mudanças aconteceu no centro de privacidade da rede social – espaço onde os usuários podem definir suas configurações sobre o tema.
Outro esforço tomado pela rede social foi o de cortar laços com provedores de dados do mundo todo – empresas que reúnem informações pessoais e de pagamento de pessoas. No Brasil, a única empresa do tipo que teve sua parceria encerrada com a rede social foi a Serasa Experian.
Na manhã de 4 de abril, o presidente executivo do Facebook, Mark Zuckerberg, anunciou que concordou em ir depor ao Congresso americano e responder às perguntas dos deputados e senadores dos EUA.
No mesmo dia, o Facebook anunciou novas versões de seus termos de uso e políticas de privacidade – os textos, que permaneceram em consulta por uma semana, ficaram maiores, mais claros e com interpretação mais aberta, na opinião dos especialistas, mas não mudaram a natureza da rede social.
Além disso, o Facebook também divulgou informações de suas investigações internas sobre o escândalo da Cambridge Analytica. Ao todo, 87 milhões (e não 50 milhões, como informaram os jornais) podem ter tido seus dados obtidos pela consultoria a partir do quiz feito por Aleksandr Kogan. Mark Zuckerberg também admitiu que a vasta maioria dos 2,13 bilhões de usuários do Facebook podem ter tido seus dados obtidos por terceiros.
No dia 9 de abril, o Facebook passou a notificar todos os usuários que tiveram seus dados compartilhados com a consultoria Cambridge Analytica (cuja sede está na foto acima). Dias antes, a empresa também anunciou que passará a verificar a identidade de todos os usuários que comprarem anúncios para publicações de cunho político e adotará mais transparência para posts pagos em campanhas eleitorais.
No dia 10 de abril, o presidente do Facebook, Mark Zuckerberg, depôs durante cinco horas no Senado americano – ele respondeu a perguntas de todo tipo e complexidade, mas revelou poucas novidades. A principal delas é a de que Aleksandr Kogan vendeu informações de seu quiz para outras empresas. Lembre como foi.
No dia seguinte, mais cinco horas de depoimentos de Mark Zuckerberg – desta vez na Câmara dos Deputados, onde enfrentou maior pressão e admitiu que seus dados estavam entre os dos 87 milhões de usuários afetados pelo escândalo da Cambridge Analytica.
Em 20 de abril, a rede social a divulgar os novos termos de uso para seus usuários nos Estados Unidos e na Europa. Lá fora, o documento recebeu alterações por duas razões: além de esclarecer termos e temas complicados à luz do escândalo do uso ilícito de dados com a Cambridge Analytica, os termos de uso também adequam a rede social à GDPR, nova lei de proteção de dados europeia que vai entrar em vigor em 25 de maio no Velho Continente. Segundo o jornal norte-americano Wall Street Journal, o novo documento tem agora 4,2 mil palavras – em inglês –, contra 2,7 mil do “contrato” anterior, divulgado no final de 2016. Sua linguagem também está mais clara e busca mostrar para os usuários o que é feito com seus dados.
Em 23 de abril, a Federal Trade Comission (FTC), órgão que regula o comércio e as empresas nos EUA, divulgou uma auditoria feita pela consultoria PricewaterhouseCoopers (PwC) em relação aos controles de privacidade usados pelo Facebook para garantir a segurança dos dados pessoais de seus 2,13 bilhões de usuários. De acordo com a consultoria, que analisou o período entre fevereiro de 2015 e fevereiro de 2017, tudo estava funcionando em perfeita ordem.
O pesquisador Aleksandr Kogan veio a pública na semana de 24 de abril para falar sobre sua participação no caso. Ele pediu desculpas por seu envolvimento com a Cambridge Analytica, mas disse que os dados que coletou não tinham poder o suficiente para influenciar os rumos de uma eleição com anúncios patrocinados. Além disso, ele argumentou que está sendo usado como bode expiatório e pretende processar o Facebook.
Pela primeira vez, o Facebook divulgou as diretrizes que utiliza em algoritmos e equipe de moderadores para identificar e retirar conteúdo inadequado da rede social; as regras mostram como a rede social enxerga temas como violência, discurso de ódio e nudez. É mais uma onda na avalanche de anúncios feitas recentemente pela rede social para acalmar os ânimos de investidores, usuários e órgãos reguladores