O YouTube anunciou nesta segunda-feira, 23, que retirou do ar 8 milhões de vídeos entre outubro e dezembro de 2017 – segundo a empresa, a maior parte desse conteúdo eram spam ou vídeos de conteúdo adulto.
Deles, 6,7 milhões foram sinalizados como inadequados por máquinas e 75% foram removidos antes de terem uma única visualização – os dados mostram os esforços da empresa, tanto em curadoria humana como em inteligência artificial, para reduzir a publicação de conteúdo adulto, extremista ou violento em sua plataforma.
Além do aspecto social, reduzir a publicação de conteúdo que derespeite as práticas e políticas do YouTube tem importância vital para o negócio da empresa. Nos últimos meses, empresas como Unilever, uma das maiores anunciantes globais, ameaçaram cortar seus anúncios no Google e no Facebook depois que sua marca foi exposta junto a conteúdos problemáticos.
'Notícias falsas, racismo, sexismo, terroristas espalhando mensagens de ódio, conteúdo tóxico dirigido a crianças... A Unilever, como uma empresa confiável, não quer anunciar em plataformas que não contribuem positivamente para a sociedade”, disse Keith Weed, diretor global de marketing da Unilever, em janeiro.
Relatório. O YouTube, que está completando 13 anos da publicação de seu primeiro vídeo nesta segunda-feira, 23, também divulgou que passará a lançar um relatório trimestral sobre o Cumprimento das Diretrizes da Comunidade – a ideia é tornar mais transparente o sistema de alerta de violações de vídeos, incluindo comentários e justificativas para as remoções.
Tornar a política de remoção mais clara é algo vital para o YouTube – e que já teve consequências trágicas para a plataforma.
Em março, Nasim Najafi Aghdam, uma youtuber ativista vegana que teve seus vídeos removidos e desmonetizados (isso é, sem possibilidade de faturar com anúncios) do site do Google entrou na sede da empresa na Califórnia e promoveu um tiroteio em massa. Quatro pessoas ficaram feridas no incidente – a própria atiradora, por sua vez, se suicidou após o incidente.