Una herramienta que "se rompió" y dejó de mostrar contexto, detrás de los fallos de moderación de Threads e Instagram

Archivo - Interfaz de la aplicación móvil de Threads
Archivo - Interfaz de la aplicación móvil de Threads - META - Archivo
Publicado: lunes, 14 octubre 2024 14:14

   MADRID, 14 Oct. (Portaltic/EP) -

Meta está revisando los problemas que la semana pasada surgieron con los sistemas de moderación de Threads e Instagram, que llegaron a bloquear contenido y eliminar cuantas que no habían cometido ninguna infracción, que la compañía identifica en herramienta que "se rompió".

    La semana pasado, algunos usuarios de Threads e Instagram se quejaron de que sus cuentas habían sido bloqueadas o eliminadas después de que el sistema identificara erróneamente sus contenidos como falsos o controvertidos.

   El responsable de estas dos plataformas, Adam Mosseri, aseguró que ya estaban investigando este fallo en el sistema de moderación automática, y unos días después confirmó que incluso habían encontrado fallos y los habían corregido.

   En respuesta a la duda de un usuario, Mosseri compartió que para las revisiones, los empleados necesitan contexto para poder determinar si ha habido una infracción o no. Pero este paso falló debido a que una de sus herramientas "se rompió y no mostraba suficiente contexto".

Leer más acerca de: