YouTube está sob pressão por ignorar alertas sobre vídeos tóxicos

A gigante de mídia do Google, empenhada em superar a televisão, tem faturamento estimado em mais de US$ 16 bilhões por ano

Um ano atrás, Susan Wojcicki estava no centro das atenções defendendo o YouTube. Sua empresa, criticada durante vários meses por propagar fatos falsos on-line, se recuperava de outro escândalo relacionado a um vídeo conspiratório sobre o tiroteio no colégio de Parkland, na Flórida, sugerindo que as vítimas eram “atores de crise”.

Wojcicki, diretora-presidente do YouTube, é uma embaixadora pública relutante, mas esteve em Austin na conferência South by Southwest para anunciar uma solução que poderia ajudar a eliminar teorias da conspiração: uma minúscula caixa de texto de sites como a Wikipedia que seria mostrada abaixo de vídeos que questionam fatos já comprovados, como a chegada do homem à Lua, e com links para que os usuários chequem a veracidade dos fatos.

A gigante de mídia, empenhada em superar a televisão, tem faturamento estimado em mais de US$ 16 bilhões por ano. Mas, naquele dia, Wojcicki comparou o Youtube a um tipo diferente de instituição. “Somos mais como uma biblioteca”, disse, adotando a conhecida postura de defensora da liberdade de expressão. “Sempre houve polêmicas, se olharmos para o passado das bibliotecas.”

Desde que Wojcicki assumiu o comando, teorias conspiratórias proeminentes veiculadas na plataforma – uma sobre vacinação infantil; outra vinculando Hillary Clinton a um culto satânico – depertaram a ira de legisladores ansiosos por regulamentar empresas de tecnologia. E, um ano depois, o YouTube está ainda mais associado às áreas mais obscuras da web.

O “x” da questão não é apenas que vídeos no YouTube questionem a chegada à lua ou a eficácia das vacinas. A gigante “biblioteca”, criada por usuários com pouca supervisão editorial, está fadada a ter mentiras absurdas. O problema do YouTube é que a plataforma permite que o absurdo floresça. E, em alguns casos, por meio de seu poderoso sistema de inteligência artificial, fornece até o combustível que permite sua propagação.

Wojcicki e sua equipe sabem disso. Nos últimos anos, dezenas de pessoas que trabalham no YouTube e no Google, dono da plataforma, chamaram a atenção sobre a quantidade de conteúdo falso, incendiário e tóxico que o maior site de vídeos do mundo exibiu e propagou.

Um funcionário queria marcar vídeos polêmicos, que violavam regras sobre discurso de ódio, e parar de recomendá-los aos usuários. Outro queria acompanhar esses vídeos em uma planilha para mapear sua popularidade. Um terceiro, irritado com a disseminação dos blogueiros de vídeo “da direita alternativa”, criou um sistema interno para medir o nível de popularidade do movimento. Sempre obtiveram a mesma resposta básica: não mexam em vespeiro.

A empresa passou anos perseguindo uma meta de negócios em detrimento de outras: “engajamento”, uma medida das visualizações, tempo gasto e interações com vídeos on-line. Conversas com mais de 20 pessoas que trabalham no YouTube ou saíram recentemente da empresa revelam uma liderança corporativa incapaz ou sem disposição de agir sobre esses alarmes internos por receio de reprimir o engajamento.

Uma porta-voz do YouTube rebateu a ideia de que Wojcicki está desatenta a essas questões e que a empresa prioriza o engajamento acima de tudo. A porta-voz disse que a plataforma passou os últimos dois anos focada em encontrar soluções para seus problemas de conteúdo. Desde 2017, o YouTube tem recomendado clipes com base em uma métrica chamada “responsabilidade”, que inclui informações de pesquisas de satisfação exibidas após os vídeos. O YouTube preferiu não dar mais detalhes, mas disse que recebe “milhões” de respostas das pesquisas semanalmente.