Startups correm para bloquear vídeos de conteúdo violento

Empresas desenvolvem ferramentas para tirar do ar rapidamente esses vídeos, mas ainda não há solução definitiva

PUBLICIDADE

Por Agências
Atualização:
Companhias usam dublês para simular violência Foto: REUTERS/Edgar Su

Startups de diversos países estão correndo para melhorar os softwares de inteligência artificial. O objetivo é que os sistemas possam automaticamente identificar e bloquear vídeos de assassinatos antes de que eles “viralizem” nas redes sociais. Nenhuma, até agora, encontrou a solução definitiva.

PUBLICIDADE

O caso mais recente de violência nas redes foi o de um homem tailandês que transmitiu ao vivo o assassinato de sua filha de 11 meses no Facebook. Esse tipo de situação levantou discussões sobre como o sistema de denúncias do Facebook funciona e que tipo de tecnologia deve ser adotada para identificar os vídeos de violência mais rapidamente. 

Mais de uma dúzia de companhias está lutando com o problema, afirmam fontes do mercado. O Google – que enfrenta problemas similares com o YouTube – e o Facebook trabalham em soluções próprias. 

A maior parte das empresas está focando em técnicas de aprendizado profundo: um tipo de inteligência artificial que usa redes neurais. No entanto, ensinar os computadores a “aprender” é uma técnica que só começou a decolar nos últimos anos, diz Matt Zeiler, fundador da Clarifai, uma empresa de análises de vídeos de Nova York.

Faz relativamente pouco tempo que tal poder de computação e dados está disponível para programar esse tipo de sistemas, o que permitiu “saltos exponenciais na precisão e eficiência de aprendizado de máquinas”, explica Zeiler. 

Em geral, o aprendizado do sistema começa com imagens que são colocadas nas camadas da rede neural do computador, que “aprende” a identificar uma placa de rua, fala, ou cena violenta num vídeo, por exemplo.

E os atos violentos podem incluir ações variadas, diz Abhijit Shanbhaf, presidente executivo da Graymatics. Se os engenheiros não conseguem encontrar um exemplo em vídeo na internet para usar de exemplo, eles mesmos gravam no escritório. 

Publicidade

Zeiler ainda diz que os algoritmos da Clarifai conseguem reconhecer objetos em um vídeo que podem ser indicativos de alguma violência, como facas ou armas, por exemplo.

Barreira. Mas há limites. Um problema é que o software só é bom em detectar coisas que foi treinado para identificar. Quando alguém decide, por exemplo, praticar um ato de violência inédito, não necessariamente o programa será capaz de classificar aquilo como violência.

“Conforme as pessoas se tornam mais criativas nas suas ações horríveis, o software precisa ser atualizado”, diz Shanbhag, cuja companhia filtra conteúdos em vídeo e imagem para várias redes sociais. 

Outra limitação é o fato de que violência pode ser algo subjetivo. Uma cena rápida com muito sangue deve ser fácil de detectar, diz Junle Wang, chefe de pesquisas e desenvolvimento da francesa PicPurify. Mas identificar tortura psicológica, por exemplo, é algo em que a empresa ainda não conseguiu. 

PUBLICIDADE

Também há conteúdo que pode ser considerado ofensivo sem ser intrinsecamente violento, como uma bandeira ISIS, por exemplo, diz Shanbhag, da Graymatics. 

Humanos. Uma outra limitação é que, embora a automação ajude, as pessoas ainda precisam estar envolvidas com os sistemas para verificar a autenticidade do conteúdo que foi sinalizado como ofensivo ou perigoso, disse Mika Rautiainen, fundadora da Valossa.

Embora as companhias adotem medidas para coibir esse tipo de conteúdo mais lentamente do que deveriam, especialistas dizem que as empresas que operam redes sociais devem ficar, cada vez mais, na mira de órgãos reguladores.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.