Niños utilizando dispositivos móviles. - PEXELS
MADRID, 18 May. (Portaltic/EP) -
El algoritmo de YouTube recomienda "cientos de vídeos" sobre armas, tiroteos e, incluso, instrucciones sobre cómo utilizar pistolas a cuentas de usuarios menores que buscan contenido relacionado con videojuegos, según ha comprobado un estudio.
La plataforma de contenido utiliza un algoritmo de recomendaciones que analiza la actividad de un usuario en YouTube, con datos como el tiempo de visualización, si comparte un vídeo o si señala que es de su agrado con el botón 'me gusta'. En base a ello, la plataforma sugiere otros vídeos que considera que están relacionados con los intereses del usuario.
En este sentido, YouTube asegura que el contenido que recomienda es "responsable", tal y como detalló en un comunicado sobre el sistema de recomendaciones publicado en 2021, en el que explica que su sistema clasifica el contenido de los vídeos identificando si son violentos o "subidos de tono", para limitar la visualización de este contenido "de baja calidad" y evitar recomendarlo.
Sin embargo, un estudio realizado por Tech Transparency Project (TTP), un centro de investigación e información estadounidense que analiza la influencia de las principales compañías tecnológicas, ha demostrado que el sistema de recomendaciones de YouTube "muestra cientos de vídeos" sobre armas, tiroteos e, incluso, instrucciones sobre cómo utilizar pistolas o cómo convertirlas en armas automáticas, a cuentas de usuarios menores que buscan contenido relacionado con videojuegos.
Para llevar a cabo este estudio, los investigadores crearon cuatro cuentas de YouTube, dos de ellas simulando ser utilizadas por niños de nueve años y las otras dos por niños de 14 años. Así, los investigadores comenzaron a usarlas buscando contenido de videojuegos para mostrar al algoritmo que este era su contenido de interés, visualizando vídeos de juegos como Roblox, Lego Star Wars y Five Nights at Freddy's.
Asimismo, en una de las cuentas de 9 años y en otra de 14 años, los investigadores comenzaron a consumir contenido de vídeos recomendados por el algoritmo. En las otras dos cuentas continuaron consumiendo vídeos sobre videojuegos pero sin prestar atención a las recomendaciones.
Así, tras analizar todos los vídeos visualizados y todas las recomendaciones de YouTube durante un periodo de 30 días, TTP ha llegado a la conclusión de que la plataforma sugirió vídeos sobre tiroteos y armas a todas las cuentas de los menores y, en concreto, un número mucho mayor de vídeos violentos a las cuentas que consumieron vídeos recomendados, en algunos casos una cifra diez veces mayor.
Entre el contenido violento mostrado en las recomendaciones, TTP detalla que se encontraban vídeos con escenas que mostraban tiroteos en escuelas y otros eventos de tiroteos masivos; demostraciones gráficas de cuánto daño pueden causar las armas en un cuerpo humano; y guías prácticas para convertir una pistola en un arma totalmente automática. Igualmente, YouTube también sugirió una película sobre la vida del asesino en serie Jeffrey Dahmer.
En concreto, los resultados de este estudio muestran que YouTube envió 382 vídeos de armas de fuego reales a la cuenta del menor de 9 años que veía vídeos de las recomendaciones, es decir una media de 12 vídeos al día. En el caso de la cuenta de 9 años que no veía las recomendaciones el número desciende a 34.
Siguiendo esta línea, las cifras para las cuentas de 14 años son de 1.325 vídeos de armas de fuego reales recomendados a la cuenta que sí visualizó contenido del algoritmo, más de 44 por día, y 172 vídeos para la cuenta que no seguía las recomendaciones.
Teniendo todo esto en cuenta, los resultados del estudio de TTP presentan dudas sobre las garantías de YouTube, que asegura utilizar algoritmos que cuidan el contenido de forma "responsable". Asimismo, también ilustra cómo cuando un jugador muestra interés en los vídeos recomendados por YouTube, el algoritmo presenta cada vez más contenido relacionado con la violencia en el mundo real.
Además, la plataforma también dispone de una opción de restringir la edad para vídeos no aptos para menores. No obstante, según los investigadores, YouTube no tomó medidas para restringir la edad de estos vídeos, a pesar de que según detalla en su web, se utiliza un sistema de seguridad infantil que restringe la edad a vídeos que muestren a adultos "participando en actividades peligrosas que los menores podrían imitar fácilmente, como el manejo de explosivos o desafíos que causan lesiones corporales".