MADRID, 29 Sep. (EUROPA PRESS) -
La ONG Amnistía Internacional ha señalado este jueves a la compañía Meta, propietaria de Facebook, por permitir supuestamente que los algoritmos de la red social contribuyeran a promover la violencia contra la población rohingya en Birmania.
Según la organización, los sistemas de Facebook promovieron la violencia contra esta minoría musulmana durante las atrocidades perpetradas por el Ejército de Birmania en 2017, un hecho por el que ha pedido responsabilidades a Meta.
"La atrocidad social Meta y el derecho a un recurso para la comunidad rohingya detalla que Meta sabía o debía haber sabido que los sistemas de algoritmos de Facebook estaban impulsando la difusión de contenido dañino antirrohingya en Birmania, pese a lo cual la empresa no hizo nada", ha expresado la ONG en un comunicado.
"En 2017, miles de personas de la minoría rohingya fueron víctimas de homicidio, tortura, violación y desplazamiento como parte de la campaña de limpieza étnica de las fuerzas de seguridad de Birmania. En los meses y años que desembocaron en las atrocidades, los algoritmos de Facebook intensificaron una tormenta de odio", ha dicho la secretaria general de Amnistía, Agns Callamard.
La organización sostiene que mientras el Ejército birmano cometía crímenes de lesa humanidad, Meta se beneficiaba de la cámara de resonancia del odio creado por sus "algoritmos intensificadores de odio".
Por ello, Amnistía ha exigido a la compañía a que rinda cuentas, puesto que considera que Meta tiene la responsabilidad de proporcionar una reparación a todas las personas que sufrieron "las consecuencias violentas de sus temerarias acciones".
Sawyeddollá, refugiado rohingya de 21 años, ha detallado a la ONG que vio "cosas horribles" en Facebook, y que por un momento pensó que la gente publicaba dichos contenidos era mala hasta que pensó que la red social también era responsable al controlar su propia plataforma.
La población rohingya es una minoría étnica predominantemente musulmana que vive en el norte del estado de Rajine. En agosto de 2017, más de 700.000 rohingyas huyeron de Rajine cuando las fuerzas de seguridad de Birmania lanzaron una campaña selectiva y generalizada de asesinatos, violaciones e incendios sistemáticos de casas.
La violencia estalló después de décadas de discriminación, persecución y opresión promovidas por el Estado contra la población rohingya que constituye 'apartheid', según ha explicado Amnistía Internacional.
"UNA CÁMARA DE RESONANCIA ANTIROHINGYA"
Meta usa sistemas de algoritmos basados en la participación para impulsar los servicios de novedades, clasificación, recomendación y grupos de Facebook que configuran lo que se ve en la plataforma. La compañía se beneficia cuando quienes usan Facebook permanecen el mayor tiempo posible en la plataforma vendiéndoles más publicidad selectiva.
La exhibición de contenidos incendiarios -_incluidos los que propugnan el odio y los que constituyen incitación a la violencia, la hostilidad y la discriminación_- es una forma efectiva de mantener a la gente más tiempo en la plataforma. De este modo, la promoción y amplificación de este tipo de contenido es clave para el modelo empresarial de Facebook basado en la vigilancia, según ha detallado la ONG.
En los meses y años que desembocaron en las atrocidades de 2017, Facebook en Birmania se había convertido en "una cámara de resonancia de contenido antirrohingya". Actores ligados al Ejército de Birmania y grupos nacionalistas budistas radicales inundaron la plataforma de contenido antimusulmán, publicando desinformación sobre una inminente toma del poder musulmana en el país y representando a la población minoritaria como "invasores".
En un post que se compartió más de 1.000 veces, un defensor musulmán de los Derechos Humanos fue representado y calificado de "traidor nacional". Los comentarios al post incluían mensajes de amenaza y racistas, como: "Es musulmán. Los musulmanes son perros y hay que matarlos a tiros" y "No lo dejen con vida. Eliminen a toda su raza. El tiempo apremia".
El contenido que incitaba a la violencia y a la discriminación llegó hasta la misma cúpula de los dirigentes militares y civiles de Birmania. El general Min Aung Hlaing, jefe de las Fuerzas Armadas del país, publicó en su página de Facebook en 2017: "Declaramos abiertamente que, rotundamente, nuestro país no tiene ninguna raza rohingya". El general tomó el poder en un golpe de Estado en febrero de 2021.
Con todo, la Misión Internacional Independiente de Investigación de Naciones Unidas sobre Birmania concluyó en última instancia que el "papel de los medios sociales (fue) considerable" en las atrocidades en un país en el que "Facebook es Internet".