banner

blog

Jul 04, 2023

O mundo nunca saberá a verdade sobre as tocas do coelho do YouTube

A repressão do site à radicalização parece ter funcionado. Mas o mundo nunca saberá o que estava acontecendo antes disso.

Na época das eleições de 2016, o YouTube tornou-se conhecido como o lar da crescente direita alternativa e de teóricos da conspiração extremamente populares. O site de propriedade do Google tinha mais de um bilhão de usuários e hospedava personalidades carismáticas que desenvolveram relacionamentos íntimos com seu público, tornando-o potencialmente um poderoso vetor de influência política. Na época, o canal de Alex Jones, Infowars, tinha mais de 2 milhões de assinantes. E o algoritmo de recomendação do YouTube, que representava a maior parte do que as pessoas assistiam na plataforma, parecia estar atraindo as pessoas cada vez mais para dentro de delírios perigosos.

O processo de “cair na toca do coelho” foi ilustrado de forma memorável por relatos pessoais de pessoas que acabaram por seguir caminhos estranhos até ao coração sombrio da plataforma, onde ficaram intrigadas e depois convencidas pela retórica extremista – um interesse nas críticas ao feminismo. poderia levar aos direitos dos homens e depois à supremacia branca e depois aos apelos à violência. O mais preocupante é que uma pessoa que não estava necessariamente procurando por conteúdo extremo poderia acabar assistindo porque o algoritmo percebeu um sussurro de algo em suas escolhas anteriores. Poderia exacerbar os piores impulsos de uma pessoa e levá-la a um lugar que ela não teria escolhido, mas do qual teria dificuldade em sair.

O quão grande era o problema da toca do coelho que o YouTube tinha não estava muito claro, e a empresa negou que tivesse um problema, mesmo enquanto fazia alterações para responder às críticas. No início de 2019, o YouTube anunciou ajustes no seu sistema de recomendação com o objetivo de reduzir drasticamente a promoção de “desinformação prejudicial” e “conteúdo limítrofe” (os tipos de vídeos que eram quase extremos o suficiente para serem removidos, mas não totalmente). Ao mesmo tempo, também iniciou uma onda de desmonetização, bloqueando programas de receitas publicitárias partilhadas para criadores do YouTube que desobedecessem às suas políticas sobre discurso de ódio. preenchido.

Um novo estudo revisado por pares, publicado hoje na Science Advances, sugere que a atualização de 2019 do YouTube funcionou. A equipe de pesquisa foi liderada por Brendan Nyhan, professor governamental em Dartmouth que estuda a polarização no contexto da Internet. Nyhan e seus coautores entrevistaram 1.181 pessoas sobre suas atitudes políticas existentes e, em seguida, usaram uma extensão de navegador personalizada para monitorar todas as suas atividades e recomendações no YouTube por um período de vários meses no final de 2020. Descobriu-se que vídeos extremistas foram assistidos por apenas 6 por cento dos participantes. Dessas pessoas, a maioria subscreveu deliberadamente pelo menos um canal extremista, o que significa que não foram empurradas para lá pelo algoritmo. Além disso, essas pessoas frequentemente acessavam vídeos extremistas a partir de links externos, e não do YouTube.

Esses padrões de visualização não mostraram nenhuma evidência de um processo de toca de coelho, como normalmente é imaginado: em vez de usuários ingênuos, de repente e involuntariamente, se verem canalizados para conteúdo odioso, “vemos pessoas com níveis muito altos de ressentimento racial e de gênero buscando esse conteúdo”, Nyhan me contou. O facto de as pessoas verem principalmente conteúdos extremistas através de subscrições e links externos é algo que “só [esta equipa] conseguiu captar, devido ao método”, diz Manoel Horta Ribeiro, investigador do Instituto Federal Suíço de Tecnologia de Lausanne que foi t envolvido no estudo. Considerando que muitos estudos anteriores sobre a toca do coelho do YouTube tiveram que usar bots para simular a experiência de navegar nas recomendações do YouTube - clicando inconscientemente no próximo vídeo sugerido repetidamente - este é o primeiro que obteve dados tão granulares sobre seres humanos reais. comportamento.

O estudo tem uma falha inevitável: não pode explicar nada do que aconteceu no YouTube antes de os dados serem recolhidos, em 2020. “Pode ser que a população suscetível já tenha sido radicalizada durante a era pré-2019 do YouTube”, como Nyhan e seus coautores explicam no artigo. Afinal, conteúdo extremista ainda existe no YouTube e algumas pessoas ainda o assistem. Portanto, há um dilema do ovo e da galinha: o que veio primeiro, o extremista que assiste a vídeos no YouTube ou o YouTuber que encontra conteúdo extremista lá?

COMPARTILHAR