banner

Blog

Jul 04, 2023

El mundo nunca sabrá la verdad sobre las madrigueras de conejo de YouTube

La represión del sitio contra la radicalización parece haber funcionado. Pero el mundo nunca sabrá lo que estaba pasando antes de eso.

Alrededor de la época de las elecciones de 2016, YouTube se hizo conocido como el hogar de la creciente extrema derecha y de teóricos de la conspiración enormemente populares. El sitio propiedad de Google tenía más de mil millones de usuarios y albergaba a personalidades carismáticas que habían desarrollado relaciones íntimas con sus audiencias, lo que potencialmente lo convertía en un poderoso vector de influencia política. En ese momento, el canal de Alex Jones, Infowars, tenía más de 2 millones de suscriptores. Y el algoritmo de recomendación de YouTube, que representaba la mayor parte de lo que la gente veía en la plataforma, parecía estar arrastrando a la gente cada vez más a engaños peligrosos.

El proceso de “caer por la madriguera del conejo” quedó memorablemente ilustrado por relatos personales de personas que terminaron por caminos extraños hasta el oscuro corazón de la plataforma, donde fueron intrigados y luego convencidos por la retórica extremista: un interés en las críticas al feminismo. podría conducir a los derechos de los hombres y luego a la supremacía blanca y luego a los llamados a la violencia. Lo más preocupante es que una persona que no necesariamente buscaba contenido extremo podría terminar viéndolo porque el algoritmo notó un susurro de algo en sus elecciones anteriores. Podría exacerbar los peores impulsos de una persona y llevarla a un lugar que no habría elegido, pero del que le resultaría difícil salir.

No estaba del todo claro qué tan grande era el problema de YouTube, y la compañía negó tener uno incluso cuando estaba haciendo cambios para abordar las críticas. A principios de 2019, YouTube anunció ajustes en su sistema de recomendaciones con el objetivo de reducir drásticamente la promoción de “información errónea dañina” y “contenido límite” (los tipos de videos que eran casi lo suficientemente extremos como para eliminarlos, pero no del todo). Al mismo tiempo, también emprendió una ola de desmonetización, bloqueando programas de ingresos publicitarios compartidos para los creadores de YouTube que desobedecían sus políticas sobre el discurso de odio. Independientemente de lo que YouTube continuara permitiendo en su sitio, la idea era que la madriguera del conejo sería rellenado.

Un nuevo estudio revisado por pares, publicado hoy en Science Advances, sugiere que la actualización de 2019 de YouTube funcionó. El equipo de investigación estuvo dirigido por Brendan Nyhan, profesor gubernamental en Dartmouth que estudia la polarización en el contexto de Internet. Nyhan y sus coautores encuestaron a 1.181 personas sobre sus actitudes políticas existentes y luego utilizaron una extensión de navegador personalizada para monitorear toda su actividad y recomendaciones en YouTube durante un período de varios meses a fines de 2020. Descubrieron que los videos extremistas eran vistos por sólo el 6 por ciento de los participantes. De esas personas, la mayoría se había suscrito deliberadamente al menos a un canal extremista, lo que significa que el algoritmo no los había empujado allí. Además, estas personas a menudo llegaban a vídeos extremistas desde enlaces externos en lugar de hacerlo desde YouTube.

Estos patrones de visualización no mostraron evidencia de un proceso de madriguera de conejo como se suele imaginar: en lugar de que los usuarios ingenuos se vean repentina e involuntariamente canalizados hacia contenido de odio, "vemos personas con niveles muy altos de resentimiento racial y de género buscando este contenido". Nyhan me lo dijo. Que la gente ve principalmente contenido extremista a través de suscripciones y enlaces externos es algo que "sólo [este equipo] ha podido captar gracias al método", afirma Manoel Horta Ribeiro, investigador del Instituto Federal Suizo de Tecnología de Lausana, que fue t involucrado en el estudio. Mientras que muchos estudios anteriores sobre la madriguera de YouTube han tenido que utilizar robots para simular la experiencia de navegar por las recomendaciones de YouTube (haciendo clic sin pensar en el siguiente vídeo sugerido una y otra vez), este es el primero que obtuvo datos tan granulares sobre seres humanos reales. comportamiento.

El estudio tiene un defecto inevitable: no puede explicar nada de lo que sucedió en YouTube antes de que se recopilaran los datos, en 2020. "Puede darse el caso de que la población susceptible ya estuviera radicalizada durante la era de YouTube anterior a 2019", como afirman Nyhan y sus coautores explican en el artículo. Después de todo, el contenido extremista todavía existe en YouTube y algunas personas todavía lo ven. Entonces, existe el dilema del huevo y la gallina: ¿quién fue primero, el extremista que mira videos en YouTube o el YouTuber que encuentra contenido extremista allí?

Examinar el YouTube de hoy para tratar de entender el YouTube de hace varios años es, para usar otra metáfora, “un poco 'manzanas y naranjas'”, dijo Jonas Kaiser, investigador del Centro Berkman Klein para Internet y Sociedad de Harvard que no participó. en el estudio, me dijo. Aunque lo considera un estudio sólido, dijo que también reconoce la dificultad de aprender mucho sobre el pasado de una plataforma observando una muestra de usuarios de su presente. Este también fue un tema importante con una colección de nuevos estudios sobre el papel de Facebook en la polarización política, que se publicaron el mes pasado (Nyhan trabajó en uno de ellos). Esos estudios demostraron que, aunque existen cámaras de eco en Facebook, no tienen efectos importantes en las actitudes políticas de la gente hoy en día. Pero no pudieron demostrar si las cámaras de eco ya habían tenido esos efectos mucho antes del estudio.

La nueva investigación sigue siendo importante, en parte porque propone una definición técnica específica de madriguera de conejo. El término se ha utilizado de diferentes maneras en el habla común e incluso en la investigación académica. El equipo de Nyhan definió un "evento de madriguera de conejo" como aquel en el que una persona sigue una recomendación para llegar a un tipo de vídeo más extremo del que estaba viendo anteriormente. No pueden haberse suscrito al canal en el que terminan, ni a canales extremos similares, antes de que la recomendación los empujara. Este mecanismo no era común en sus hallazgos en absoluto. Lo vieron actuar en sólo el 1 por ciento de los participantes, lo que representa sólo el 0,002 por ciento de todas las visualizaciones de vídeos de canales extremistas.

Es genial saberlo. Pero, una vez más, eso no significa que las madrigueras de conejo, como las definió el equipo, no fueran en algún momento un problema mayor. Es sólo una buena indicación de que parecen ser raros en este momento. ¿Por qué tardó tanto en buscar las madrigueras de los conejos? "Es una pena que no los hayamos captado en ambos lados del cambio", reconoció Nyhan. “Eso hubiera sido ideal”. Pero tomó tiempo crear la extensión del navegador (que ahora es de código abierto, por lo que puede ser utilizada por otros investigadores), y también tomó tiempo reunir una gran cantidad de dinero. Nyhan estimó que el estudio recibió alrededor de 100.000 dólares en financiación, pero una subvención adicional de la Fundación Nacional de Ciencias que se destinó a un equipo independiente que creó la extensión del navegador fue enorme: casi 500.000 dólares.

Nyhan tuvo cuidado de no decir que este documento representa una exoneración total de YouTube. La plataforma no ha dejado de permitir que su función de suscripción dirija el tráfico hacia los extremistas. También continúa permitiendo a los usuarios publicar vídeos extremistas. Y saber que sólo un pequeño porcentaje de usuarios tropieza con contenido extremista no es lo mismo que saber que nadie lo hace; un pequeño porcentaje de una gigantesca base de usuarios todavía representa una gran cantidad de personas.

Esto también habla del problema más amplio con la nueva investigación de Facebook del mes pasado: los estadounidenses quieren entender por qué el país está tan dramáticamente polarizado, y la gente ha visto los enormes cambios en nuestro uso de tecnología y consumo de información en los años en que esa polarización se hizo más obvia. . Pero la web cambia todos los días. Las cosas que YouTube ya no quiere albergar aún podrían encontrar grandes audiencias en plataformas como Rumble; la mayoría de los jóvenes ahora usan TikTok, una plataforma que apenas existía cuando empezamos a hablar de los efectos de las redes sociales. Tan pronto como empezamos a desentrañar un misterio sobre cómo nos afecta Internet, otro ocupa su lugar.

COMPARTIR