O YouTube está enfrentando uma nova onda de críticas. A causa: o número alarmante de vídeos de crianças, aparentemente inofensivos, mas que abrem (boa) margem para pedofilia, e com as caixas de comentários repletas de predadores sexuais.

A movimentação (re)acendeu a polêmica acerca do assunto depois que um vídeo expôs o fato. Seu autor é Matt Watson que já foi criador de conteúdo no YouTube. Ele voltou com um único vídeo, em transmissão ao vivo, para falar sobre o tema. O que ele percebeu foi que o algoritmo do YouTube cria um círculo de recomendações de vídeos de crianças, principalmente meninas, ao procurar por um termo específico. O termo deveria mostrar apenas vídeos de mulheres que compartilham compras de biquínis, mas com apenas dois cliques as recomendações passaram a ter caráter infantil e facilmente explorável por pedófilos.

publicidade

Os vídeos não contém natureza pornográfica (quem quer que os tenha gravado, o fez ingenuamente), o que explica o fato de terem passado pelo filtro do YouTube. No entanto, perfis suspeitos coletam esse material e enviam esses vídeos para seus próprios canais; a parte da pedofilia fica evidente nos comentários, quando usuários começaram a publicar o “timestamp” (digitar os minutos e segundos do vídeo em que momentos-chave acontecem) que levam os espectadores a pontos específicos dos vídeos que mostram as crianças em posições comprometedoras.

O caso ganhou grande repercussão, e fez com que o YouTube começasse a ser boicotado por empresas grandes. A denúncia fez com que a Epic Games (criadora do Fortnite), a Nestlé, a Disney e outras empresas decidissem retirar seus anúncios da plataforma. A tendência é que o YouTube aja mais rapidamente diante dessa pressão dos anunciantes.

publicidade

O coração do problema é o algoritmo de recomendação do YouTube — sistema que tem sido amplamente criticado. “Ele facilita a habilidade dos pedófilos de se conectarem uns aos outros, trocarem informações de contato e vincularem a pornografia infantil real nos comentários”, escreveu Watson no Reddit. Sites como o The Verge conseguiram testar recriar o caminho apresentado pelo YouTuber com no máximo seis cliques.

Um porta-voz do YouTube informa que vários dos vídeos apresentados por Watson foram removidos. “Qualquer conteúdo — incluindo comentários — que ponha menores em perigo é abominável e temos políticas claras que proíbem isso no YouTube”, alega. “Reforçamos essas políticas agressivamente e as reportamos a autoridades relevantes, bem como as removemos de nossa plataforma e encerramos as contas. Continuamos a investir muito em tecnologia, equipes e parcerias com instituições de caridade para enfrentar esse problema”, completou.

publicidade

O YouTube combate essa prática?

O YouTube usa uma combinação de tecnologia de aprendizado de máquina e revisores humanos, incluindo os do programa Trusted Flagger (“os sinalizadores de confiança”). O objetivo é identificar e remover esse tipo de conteúdo. Ainda que a plataforma receba 450 horas de novos vídeos por minuto, são bilhões de usuários acessando esses conteúdos, especificamente. Sendo assim, é possível identificá-los.

Mesmo para os sinalizadores de confiança, ainda existem bloqueios para reações rápidas. “O conteúdo sinalizado por Trusted Flaggers não é removido automaticamente e não está sujeito a um tratamento de política diferencial. Os mesmos padrões se aplicam a flags recebidos de outros usuários”, disse uma fonte anônima ao The Verge. “No entanto, devido ao seu alto grau de precisão, os sinalizadores Trusted Flaggers são priorizados para revisão. Eles não têm voz sobre o que acontece ou não com o conteúdo reportado”.

publicidade

Uma das maiores dúvidas do Watson é por que esses vídeos podem aparecer no YouTube. A maioria foi enviada por contas suspeitas. Com as seções de comentários cheias de comentários totalmente inadequados, não é difícil perceber que algo está errado. O porta-voz do YouTube se recusou a responder quando The Verge apresentou esta pergunta. As diretrizes da comunidade estabelecem que “fazer upload, comentar ou participar de atividades que sexualizem menores pode resultar na remoção do conteúdo e no encerramento da conta”.

Enquanto vídeos individuais são removidos, os usuários problemáticos raramente são banidos — ou seja, ficam livres para enviar mais vídeos no futuro. Os links denunciados por Watson em seu vídeo realmente foram removidos, porém as contas que os postaram permaneceram ativas. O YouTube não respondeu à pergunta do The Verge sobre como a equipe de confiança e segurança determinou quais contas puderam permanecer ativas e quais não foram.

A plataforma tem regras claras sobre o conteúdo que contém crianças. Uma passagem em sua página de diretrizes e políticas da comunidade afirma que “conteúdo sexualmente explícito com menores e conteúdo que explora sexualmente menores” é estritamente proibido. Acrescenta-se inclusive que eles seriam denunciados às autoridades. No entanto, muitos dos vídeos sinalizados por Watson não estão violando as diretrizes do YouTube, porque não mostram crianças sendo sexualizadas, mas são usadas pelos criminosos em potencial por meio dos comentários. Nestes casos, a punição mais comum é fechar a caixa de comentários apenas.

O YouTube tentou lidar com imagens de abuso sexual infantil no passado, em parceria com autoridades e especialistas, e a Internet Watch Foundation (IWF). Essas organizações fornecem à equipe de segurança do YouTube “impressões digitais” de arquivos de referência de conteúdos já identificados de abuso sexual infantil. O material é transformado em “hashes”, que são códigos que permitem identificar material ilegal sem precisar armazená-los em um banco de dados. Essas hashes são usadas para analisar e remover conteúdo do YouTube. A empresa também relata todas as imagens de abuso sexual infantil e comentários ilegais, incluindo mensagens. Assim a aplicação adequada da lei pode acontecer.

Os vídeos de exploração representam apenas uma fração do conteúdo que viola as diretrizes do YouTube. A plataforma considera essa área específica como sendo “de baixo volume e alto risco”. A equipe de segurança disse que está comprometida em combater o problema desenvolvendo novas ferramentas e estratégias. Recentemente, canais do YouTube sobre Pokémon GO e do Club Penguin foram atingidos por denúncias equivocadas. A causa foi o uso do termo “CP” — as ferramentas de aprendizado de máquina leram como “child pornography” (pornografia infantil).