Bluesky tiene un equipo de moderadores propio, entrenado para revisar las denuncias de usuarios y sistemas automatizados

Recurso de la red social Bluesky
Recurso de la red social Bluesky - BLUESKY
Actualizado: miércoles, 17 enero 2024 12:21

   MADRID, 17 Ene. (Portlatic/EP) -

   La red social descentralizada Bluesky cuenta con un equipo propio de moderación que trabaja a tiempo completo para revisar las denuncias de los usuarios y los contenidos identificados por los sistemas de automatizados, lo que llevó a la suspensión de cerca de 6.500 elementos, entre cuentas y publicaciones por infringir las normas.

   La red social Bluesky ha aprovechado el cambio de rumbo de la antigua Twitter para crecer, hasta alcanzar los 3 millones de usuarios, y para dotar a su servicio de medidas de moderación, tanto internas como en forma de herramientas para los individuos y las comunidades, quienes tienen a su disposición herramientas para denunciar publicaciones, cuentas o listas a través de la aplicación.

   Estos contenidos denunciados pasan posteriormente una revisión. En este caso, Bluesky asegura que han apostado por un equipo de moderadores humanos, contratado y entrenado a propósito, que desde primavera trabaja las 24 horas del día para comprobar si se incumplen las políticas de la plataforma.

   Este grupo ha revisado 358.165 denuncias individuales, como recogen en la nota que compaña su primer Informe de Transparencia, relativo a 2023. En él también informan de que el 5,6 por ciento de sus usuarios activos (esto es, 76.699 cuentas individuales) ha realizado una o más denuncias y que el 45.861 cuentas individuales (el 3,4%) fueron objeto de denuncia, en una o más ocasiones, ya fuese por la cuenta en sí o como alguna de sus publicaciones.

   La compañía puede realizar suspensiones, de manera temporal o permanente, en los casos más graves, una acción que llevó a cabo en 4.667 cuentas y 1.817 contenidos individuales.

   Para detectar contenido infractores de forma proactiva, Buesky también utiliza herramientas automatizadas para actuar rápidamente sobre ellos, ya que sea para añadir etiquetas de aviso o para derivarlos al equipo de moderación. También pueden eliminar las publicaciones que encuentren, como en el caso del material de abuso y explotación infantil, que no se tolera en la plataforma.

HERRAMIENTAS DE MODERACIÓN

   Los trabajos en moderación realizados en 2023 también incluyen el rediseño de algunas características para reducir el abuso y la construcción de componentes para su infraestructura que den soporte los trabajos en el área de confianza y seguridad.

   También han anticipado la llegada de funciones de moderación adicionales, como la posibilidad de silenciar palabras y de desactivar temporalmente cuentas, y de un programa colaborativo para combatir la desinformación en las publicaciones, a ejemplo de las Notas de la Comunidad, de X (antigua Twitter), en el que los usuarios participantes añaden contexto para matizar informaciones falsas o engañosas.

   Otra novedad será lo que la compañía denomina como moderación componible o acoplable, un enfoque presentado en abril del año pasado basado en un ecosistema de proveedores terceros, en el que habrá una moderación básica por defecto y filtros personalizados adicionales como el sistema de etiquetado, con etiquetas que pueden ser generadas por servicios terceros, los administradores de una comunidad o los propios usuarios.

   Asimismo, la red social cuenta permite crear listas de moderación, para silenciar y bloquear cuentas para una comunidad entera. Los autores de las publicaciones, por su parte, pueden añadir etiquetas para advertir del tipo de contenido que los usuarios pueden encontrar, y ajustar la configuración para decidir quién puede responder.

   La compañía añade que también cuentan con un marco de herramientas automatizadas que apoya al equipo de moderación en la lucha contra el spam, que identifica patrones de comportamiento, "para marcar proactivamente contenido inaceptable antes de que los usuarios humanos lo vean y lo denuncien".