PUBLICIDADE

A Torre de Marfim não pode continuar ignorando a tecnologia

Com algoritmos cada vez mais presentes no nosso cotidiano, os acadêmicos deveriam explicar para a sociedade e para os legisladores o poder das novas tecnologias

Por Cathy O’Neil
Atualização:
Para Cathy O'Neil,os acadêmicos precisam dar um salto qualitativo para preencher as lacunas na nossa compreensão coletiva sobre o novo papel da tecnologia nas nossas vidas. Foto: REUTERS/Thomas Peter/Files

Ultimamente, o big data, a inteligência artificial e as plataformas de tecnologia que os colocam para trabalhar têm uma enorme influência e poder. Os algoritmos selecionam a informação que obtemos quando estamos online, nossos empregos, as faculdades nas quais somos admitidos e os cartões de crédito e de seguro emitidos em nosso nome. Sem falar que, quando os computadores tomam decisões, muita coisa pode dar errado.

PUBLICIDADE

Nossos legisladores necessitam desesperadamente que isso tudo lhes seja explicado de uma maneira equânime para poderem formular regras apropriadas, e as empresas de tecnologia têm de assumir a responsabilidade por sua influência sobre todos os aspectos das nossas vidas. Mas os acadêmicos têm se mostrado inertes, deixando a responsabilidade por esta educação para lobistas bem pagos e funcionários que deixaram de lado os estudos acadêmicos.

Isto significa que nossa principal fonte de informação que sofre com a má tecnologia  - com freqüência depois de alguma coisa correr mal, como quando soubemos que notícias falsas dominaram os feeds de notícias da nossa mídia social antes da eleição do ano passado, ameaçando nossa democracia-  é a mídia. Mas esta cobertura sempre esquece temas do dia a dia e tende a ser muito mais incauta quando ela existe. Muito do que deveria nos preocupar nos chega com mais nuanças e limitações– e muito menos compreendido – do que o que vemos nas manchetes. Além disto, não devemos depender do jornalismo para fazer o trabalho tedioso e sério de compreender os problemas com os algoritmos, mais do que dependemos deles para investigar as mais recentes questões nos campos da sociologia e da ciência ambiental.

É preciso que os acadêmicos dêem um salto qualitativo para preencher as lacunas na nossa compreensão coletiva sobre o novo papel da tecnologia nas nossas vidas. Necessitamos de pesquisas sólidas sobre a contratação de algoritmos que parecem ignorar pessoas com problemas mentais, condenar algoritmos que costumam falhar tanto para réus negros como brancos, que estatisticamente falham nas avaliações dos professores da rede pública, ou algoritmos de programação opressivos. E necessitamos de pesquisas para assegurar que estes mesmos erros não sejam cometidos constantemente. Faz parte das capacidades da pesquisa acadêmica estudar tais exemplos e opor resistência às falhas constitucionais, éticas ou estatísticas mais óbvias e dedicar sua energia intelectual na busca de soluções. E embora os tecnólogos profissionais que trabalham em empresas privadas não estejam em posição de criticar seu próprio trabalho, os acadêmicos teoricamente desfrutam de uma liberdade muito maior de investigação.

Empecilhos. Honestamente, existem obstáculos reais. Os acadêmicos não têm acesso a dados pessoais sensíveis e na maior parte privados coletados pelas companhias de tecnologia. E mesmo quando estudam assuntos inspirados por essas informações, eles trabalham com dados e métodos que normalmente prevêem coisas muito mais abstratas, como doenças ou economia, do que relacionadas ao comportamento humano, ignorando assim os efeitos que tais opções poderão ter. Acadêmicos que estão mais próximos das grandes empresas em termos de técnica rapidamente são convidados a trabalhar para elas recebendo salários muito mais altos. O que significa que professores das áreas de robótica e ciência da computação, ou de faculdades de Direito, quase sempre se vêem em situações em que qualquer mensagem mostrando dúvidas a respeito de uma questão pode implicar um conflito de interesse profissional.

Os muitos institutos de ciência de dados no país que criaram programas de mestrado lucrativos para cientistas que trabalham com dados, estão mais focados em obter uma fatia do grande bolo – na forma de colaborações e empregos para seus formandos – do que em investigar como esse bolo deve ser feito. E de fato, enquanto escolas da Costa Oeste como Stanford e a universidade da Califórnia, em Berkeley, são renomadas por serem fábricas que formam engenheiros e cientistas de dados do Vale do Silício,são muito poucos os empregos especializados no país devotados à responsabilidade algorítmica.

Um último obstáculo: não existe basicamente nenhum campo distinto do estudo acadêmico que leve a sério a responsabilidade de compreender e criticar o papel da tecnologia – e especificamente, dos algoritmos que são responsáveis por tantas decisões em nossas vidas. Não surpreende. Que departamento acadêmico vai abandonar uma especialização vantajosa em termos de dinheiro para se consagrar a esta, quando muitas faculdades já vem lutando com falta de recursos?

Publicidade

Soluções. Há uma solução no curto prazo. Precisamos urgentemente de um instituto acadêmico concentrado na responsabilidade algorítmica.

Em primeiro lugar temos de oferecer uma educação ética em sentido amplo para futuros engenheiros e cientistas de dados, graduados ou em fase de graduação nas universidades, cujos temas de estudo sejam baseados nos algoritmos da vida real que separam os que vencem e os que fracassam. Professores das áreas de ciências humanas, ciências sociais e filosofia devem se envolver neste debate.

Em segundo lugar, este instituto acadêmico deve oferecer  workshops, conferências e clínicas concentrados no entrelaçamento dos diferentes setores com o mundo da Inteligência Artificial e dos algoritmos. E também contar com especialistas nas áreas de conteúdo, advogados, legisladores, estudiosos de ética, jornalistas e cientistas de dados.

Em terceiro lugar, deveria constituir uma comissão encarregada de reformular os padrões e a ética da experimentação humana na era do big data, para serem adotados pelo setor de tecnologia.

Há muita coisa em jogo no tocante ao papel cada vez maior dos algoritmos em nossas vidas. A boa notícia é que muita coisa pode ser feita e esclarecida por profissionais e pensadores não comprometidos e protegidos dentro dos muros da academia com liberdade de investigação e expressão acadêmicas. Poderiam pelo menos começar a observar mais de perto as grandes empresas de tecnologia em vez de ficarem à espera de serem contratados por elas.

Cathy O’Neil é cientista de dados e autora do livro “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.

Comentários

Os comentários são exclusivos para assinantes do Estadão.