MADRID, 3 Sep. (Portaltic/EP) -
YouTube ha eliminado cinco veces más vídeos individuales y canales por mostrar discurso del odio en el segundo trimestre de 2019 respecto al anterior, unos datos que la compañía identifica con la actualización de su política sobre el discurso del odio del mes de junio.
A principios de junio, la compañía tecnológica introdujo una actualización en sus políticas, centrada en el discurso del odio, con el objetivo de clarificar qué entienden por tal y reforzar la lucha contra el supremacismo y los contenidos que niegan el Holocausto.
Esta política también se complementó con acciones enfocadas a reducir la difusión de contenido que se encuentra en el "límite de lo permitido", como el que defiende que la Tierra es plana, según explicó entonces YouTube.
Esta actualización ha tenido "un profundo impacto" que se ha notado en las cifras que recoge su último Informe sobre el Refuerzo de las Directrices de la Comunidad, correspondiente al segundo trimestre de 2019.
En este periodo, han eliminado más de 100.000 vídeos individuales, cinco veces más que en el trimestre anterior. También se han multiplicado por cinco los canales retirados, hasta superar los 17.000. En el caso de los comentarios, la compañía ha retirado "cerca del doble" en este trimestre, más de 500 millones.
Este incremento en la eliminación con motivo del discurso del odio se debe "en parte, a la retirada de antiguos comentarios, vídeos y canales que previamente permitidos", como indican desde la compañía, pero que dejaron de estarlo con el refuerzo de las políticas que introdujo la actualización de junio.
Esta actualización también tenía por objetivo reducir la visibilidad de los vídeos no permitidos. En este sentido, y en colaboración con un equipo de más de 10.000 personas, la compañía ha retirado cerca de 30.000 vídeos "en el último mes", que en conjunto han generado un 3 por ciento de las visitas que han tenido los vídeos sobre hacer punto en el mismo periodo.
La compañía también ha señalado en su blog oficial que el 87 por ciento de los nueve millones de vídeos que la compañía ha retirado de la plataforma por violar sus políticas fue detectado primero por su sistema de inteligencia artificial.
YouTube empezó a utilizar en 2017 la inteligencia artificial para detectar los contenidos que potencialmente violan las políticas de la plataforma, que posteriormente son revisados por un equipo humano.
Este sistema es "particularmente efectivo al detectar contenido que parece ser igual, como 'spam' o contenido para adultos", así como el discurso del odio o el contenido violento, pero el factor humano permite "tomar decisiones matizadas" que dependen del contexto.
Parte de estos esfuerzos están enfocados a identificar y retirar contenido que viole las políticas antes de que sea visto por los usuarios. En este sentido, la compañía ha indicado más del 80 por ciento de los vídeos autodetectados se retiraron antes de recibir una visita.