Algoritmos não são melhores que humanos para prever crime, diz estudo

Pesquisadores do Dartmouth College mostram que algoritmos precisam de mais variáveis que humanos para ter mesmo percentual de sucesso em previsão

PUBLICIDADE

Por Redação Link
Atualização:
Filme de 2001, baseado em conto de Philip K. Dick, mostra sociedade que possui sistema de polícia capaz de prever crimes antes que eles aconteçam Foto: Amblin Entertainment

Um dos cenários mais utilizados por filmes e livros de ficção científica para descrever o poder da computação é imaginar algoritmos capazes de prever quem cometerá um crime antes mesmo de fazê-lo – e assim evitar o dano causado. A ideia, do escritor Philip K. Dick, deu origem ao filme Minority Report - A Força da Lei, mas parece um bocado longe de se realizar: um novo estudo realizado por dois pesquisadores do Dartmouth College, dos Estados Unidos, mostra que hoje as máquinas não são melhores que os humanos para preverem crimes. 

PUBLICIDADE

Em um artigo publicado na revista acadêmica Science Advances nesta semana, a dupla de pesquisadores Julia Dressel e Hany Farid descreve que pequenos grupos de pessoas, aleatoriamente escolhidas, conseguiram prever com 67% de eficácia se uma pessoa acusada de um crime seria condenada por outro delito no futuro. 

A taxa é semelhante à do COMPAS, um software noret-americano usado por júris e juízes nos Estados Unidos para fornecer subsídios às suas decisões. "Um algoritmo não pode ser considerado garantia de certeza sozinho", disse Dressel ao jornal norte-americano The New York Times

No estudo, Dressel e Farid descobriram que humanos poderiam fazer previsões com a mesma taxa de acerto com apenas duas informações: a idade do criminoso e crimes anteriores. Já o COMPAS precisa de ao menos seis variáveis para considerar o risco que um criminoso pode oferecer á sociedade, diz a Equivant, empresa responsável pelo software. 

Os pesquisadores não são os primeiros a questionar o software, bastante utilizado nos Estados Unidos – em 2016, a agência de jornalismo investigativo ProPublica concluiu que o programa era injusto com réus negros. No entanto, segundo o estudo feito por Dressel e Farid, tanto os grupos de humanos como o software tendiam a considerar negros mais vezes como possíveis criminosos reincidentes. 

Comentários

Os comentários são exclusivos para assinantes do Estadão.