WASHINGTON 20 Dic. (Reuters/EP) -
Muchos sistemas de reconocimiento facial identifican con mayor margen de error a personas de raza asiática o afroamericana que a las de raza caucásica, según concluye un estudio de una institución gubernamental estadounidense.
El informe del Instituto Nacional de Tecnología y Estándares (NIST) concluye que, cuando se realiza una búsqueda de un tipo particular en una base de datos de conexión 'uno a uno', muchos algoritmos de reconocimiento facial identifican erróneamente las caras de personas de raza afroamericana o asiática un 10 por ciento más que en el caso de las caras de raza caucásica.
El estudio señala además que es más probable que haya errores de identificación en caras de mujeres afroamericanas en búsquedas de coincidencias "uno a uno", una técnica que se suele utilizar cuando se busca a una persona de interés para una investigación.
Mientras algunas empresas han tratado de restar importancia a anteriores estudios que señalaban que la tecnología de reconocimiento facial podría actuar con parcialidad a la hora de adivinar el género de cada persona, en el marco del llamado "análisis facial", el estudio del NIST demuestra que existen dificultades en el reconocimiento facial dependiendo de la raza.
El fundador de la Liga de la Justicia Algorítmica, Joy Buolamwini, ha dicho que este informe representa "un rebatimiento integral" frente a aquellos que mantienen que la parcialidad en la Inteligencia Artificial es un tema inexistente. Este estudio llega en un momento en el que está aumentando el malestar con el uso de medios tecnológicos en Estados Unidos, con los detractores argumentando que las nuevas tecnologías pueden provocar prácticas discriminatorias, abusos o arrestos injustificados.
Para redactar su estudio, el NIST ha probado 189 algoritmos de 99 desarrolladores, excluyendo empresas como Amazon, que no remitió ningún algoritmo para su revisión. Los algoritmos analizados difieren de los que venden las empresas, toda vez que son algoritmos que proceden de la nube con datos de entrenamiento.
SenseTime, una empresa china de inteligencia artificial valorada en más de 7.500 millones de dólares (unos 6.700 millones de euros), tenía "altos porcentajes de fallos en identificación por conexión en todas las comparaciones" en una de las pruebas realizadas por el NIST, según consta en el informe.
El algoritmo de SenseTime daba como resultado falsos positivos en más del 10 por ciento de las ocasiones cuando analizaba fotos de hombres somalíes, una circunstancia que podría provocar que un hombre somalí pudiera pasar un control de aduanas una de cada diez veces usando el pasaporte de otro hombre somalí.
Yitu, otra empresa de inteligencia artificial china, consiguió mejores resultados en reconocimiento facial por coincidencia y mostró un menor porcentaje de error racial. El estudio señala que Microsoft tuvo casi diez veces más casos de falsos positivos en mujeres de color que en hombres en algunas de las pruebas. Su algoritmo mostró menos discrepancias en las pruebas con fotos solo de hombres de raza afroamericana y blanca.
El diputado Bennie Thompson, presidente de la Comisión de Seguridad Nacional de la Cámara de Representantes de Estados Unidos, ha dicho que las conclusiones sobre la parcialidad de la tecnología son peores de que lo que se temía en un momento en el que los sistemas de reconocimiento facial ya forman parte de los controles de aduanas. "La administración debe reevaluar sus planes con la tecnología de reconocimiento facial a la luz de estos impactantes resultados", ha concluido.