MADRID, 27 Nov. (EUROPA PRESS) -
El Comité para la Eliminación de la Discriminación Racial de Naciones Unidas ha publicado este jueves una guía destinada a los cuerpos de Policía de todo el mundo, para combatir la "lacra" de los perjuicios raciales en el desempeño de su labor, en la que han puesto especial énfasis en los sesgos que la inteligencia artificial y los macrodatos pueden crear.
El organismo se ha referido, en especial, a los 182 países adheridos a la Convención sobre la Eliminación de Todas las Formas de Discriminación Racial, para advertirles del riesgo de sesgo al utilizar algoritmos de inteligencia artificial en la aplicación de la ley.
En este sentido, el comité ha advertido de que el mayor uso por parte de las fuerzas del orden de los macrodatos, la inteligencia artificial, el reconocimiento facial y otras nuevas tecnologías corre el riesgo de profundizar en el racismo, la discriminación racial, la xenofobia y, en consecuencia, la violación de muchos Derechos Humanos.
Estas técnicas "pueden reproducir y reforzar los prejuicios ya existentes y dar lugar a prácticas aún más discriminatorias. Estamos profundamente preocupados por los riesgos particulares cuando se utiliza el perfil algorítmico para determinar la probabilidad de actividad delictiva", ha reseñado uno de los miembros del comité, Verene Shepherd.
Para ejemplificar a qué se refiere con el uso de macrodatos e inteligencia artificial, Shepherd ha explicado que si en un determinado barrio los datos históricos de arrestos reflejan prácticas con prejuicios raciales, estos profundizarán el riesgo de vigilancia excesiva en el vecindario, "lo que a su vez puede conducir a más arrestos, creando un circuito de retroalimentación peligroso".
Por estas razones, la guía publicada destaca que los sistemas de elaboración de perfiles algorítmicos deben cumplir plenamente con el derecho internacional de los Derechos Humanos, enfatizando la transparencia en el diseño y su aplicación cuando se implementan con fines policiales.
Para esto, ha señalado el comité, las empresas privadas que desarrollan, venden u operan sistemas de elaboración de perfiles algorítmicos con fines de aplicación de la ley también tienen la responsabilidad de involucrar a personas de diversos sectores para evaluar el riesgo de violación de los Derechos Humanos que tales sistemas pueden plantear.
"Además de ser ilegal, la elaboración de perfiles raciales también puede ser ineficaz y contraproducente como herramienta de aplicación de la ley", ha advertido el comité.
Es decir, "las personas sometidas a la aplicación de la ley discriminatoria tienden a tener menos confianza en la Policía y, como resultado, están menos dispuestas a cooperar con ellos", ha subrayado.