Empresas y expertos reclaman colaboración entre algoritmos y humanos en la toma de decisiones para lograr una IA ética

El cofundador de QueryGo, Héctor Casado; la presidenta de OdiseIA y experta Idoia Salazar, y el director general adjunto de Mutualidad de la Abogacía, Fernando Ariza, en el encuentro digital ‘Inteligencia Artificial. Retos Éticos en la era post COVID-19’
El cofundador de QueryGo, Héctor Casado; la presidenta de OdiseIA y experta Idoia Salazar, y el director general adjunto de Mutualidad de la Abogacía, Fernando Ariza, en el encuentro digital ‘Inteligencia Artificial. Retos Éticos en la era post COVID-19’ - Cézaro De Luca - Europa Press
Actualizado: miércoles, 28 julio 2021 18:33

   MADRID, 8 Jul. (Portaltic/EP) -

   Empresas y expertos han reclamado en un coloquio celebrado este jueves en Madrid que tanto el sector privado como el público utilicen la Inteligencia Artificial (IA) como un complemento en la toma de decisiones, con el objetivo de mejorar la eficiencia de los procesos, pero insisten en la importancia de que las decisiones finales recaigan siempre en personas en última instancia para preservar la ética y evitar sesgos y discriminaciones.

   La IA avanza a pasos de gigante en la vida de las personas. Mientras muchas ya están acostumbradas a algoritmos, como los que recomiendan qué series ver en una plataforma de 'streaming' o qué productos comprar cuando navegas por Internet, hay quienes no se paran a pensar en otras implicaciones éticas que van a surgir en torno al uso de la IA en procesos de contratación o de concesión de seguros, entre otros.

   Con este tema como foco ha tenido lugar el encuentro digital 'Retos éticos de la Inteligencia Artificial', organizado por Mutualidad de la Abogacía con la colaboración de Europa Press. "Con la gran cantidad de datos que maneja una compañía de seguros, implantarlos a la Inteligencia Artificial puede ser un gran problema si no se hace de la forma adecuada", ha reconocido el director general adjunto de la Mutualidad de la Abogacía, Fernando Ariza.

   La compañía aseguradora constituyó precisamente en junio de 2019 su Comité de Ética de IA, pionero en el sector a nivel europeo, e integrado por dos miembros del consejo de administración de la empresa y por expertos externos. "Nos encargamos de supervisar que, a medida que incorporamos la IA, esas máquinas implementen nuestros principios y valores", ha explicado Ariza.

   Esta decisión se da en un contexto en el que, según un estudio de la consultora KPMG, solo un 10 por ciento de las aseguradoras usan IA en la actualidad, pero se espera que la cifra llegue al 65 por ciento en apenas tres años. En la actualidad, Mutualidad de la Abogacía ya integra la IA en varios de sus procesos: la planificación financiera, evaluación de los riesgos, optimización de la tarifa, chatbots conversacionales, detección del fraude o para el seguimiento y trazabilidad de las inversiones.

   La empresa ha señalado que, ante el crecimiento de datos que proporciona el Big Data, es importante mantener el concepto inicial de seguros basado en la mutualización para proteger ante riesgos y vulnerabilidades: "Si personalizamos mucho la oferta con el Big Data corremos el riesgo de excluir a algunos de los ciudadanos de los seguros y eso no forma parte de nuestra filosofía", añade Ariza.

   En esto coinciden expertos de otras empresas, como es el caso de QueryGo, especializada en productos que facilitan la toma de decisiones a empresas basadas en datos. "La tecnología en sí no es compleja, pero sí lo es determinar si debe usarse una máquina para determinar a qué empleado se contrata y a cuál no", ha señalado su cofundador, Héctor Casado, poniendo uno de los múltiples casos de uso de los algoritmos de Inteligencia Artificial.

COLABORAR CON LA IA, NO DELEGAR TODO EN ELLA

   "No se trata de delegar en los algoritmos, sino de colaborar con ellos en nuestro proceso de toma de decisiones como humanos", ha argumentado por su parte durante el coloquio la presidenta de OdiseIA y experta en el Observatorio de Inteligencia Artificial del Parlamento Europeo, Idoia Salazar.

   Esta concepción encaja precisamente con los principios de la legislación de IA aprobados por el Parlamento Europeo a propuesta de la Comisión Europea, que buscan preservar la ética y establecen directrices como la necesidad de intervención y supervisión humanas, la seguridad, transparencia de los datos y la ausencia de discriminación, entre otros.

   Como solución práctica, el sector plantea una colaboración entre máquinas y humanos, en la que la IA pueda ayudar, por ejemplo, a las tareas iniciales de selección de personal, más mecánicas, pero que la decisión final sobre a qué trabajador se contrata la tome siempre una persona, eligiendo entre los últimos candidatos. En cualquier caso, inciden en la importancia de revisar esos procesos automatizados para evitar sesgos.

   "Lo que funciona en la IA es esa combinación de hombre y máquina", insiste Salazar, que ha hecho referencia a estudios en el diagnóstico de cáncer en los que humanos e IA por separado rondaban el 80 por ciento de efectividad, pero que combinados llegaban al 99 por ciento.

"LA ÉTICA DE LA IA ES LA DE LAS PERSONAS"

   Uno de los retos a los que se enfrenta el sector a la hora de determinar cuál es el funcionamiento ético de un algoritmo de Inteligencia Artificial es, precisamente, qué enfoque ético elegir para evitar que las máquinas actúen con sesgos y discriminen a algunas personas.

   "Un 'software' no puede tener ética. La ética de la IA es de las personas", añade Salazar, quien ha apuntado que, pese a existencia de diversos códigos éticos para el desarrollo de IA, la mayoría no han tenido éxito "porque las personas y las culturas tienen principios éticos muy diferentes" y resulta complicado establecer un consenso en algunos puntos.

   Asimismo, los expertos han hablado de la importancia de no perder el foco a la hora de desarrollar esta tecnología, usándola únicamente cuando ofrezca un beneficio directo para la sociedad, la empresa o sus clientes. "Tenemos que pensar en el impacto que tiene la IA en la sociedad antes de desarrollar los algoritmos. No debemos perder la humanidad", ha apuntado el cofundador de QueryGo.

   En esta línea, ha señalado que hay aspectos en los que sigue siendo necesario el contacto humano y que "llegar a un mundo totalmente artificial es el gran riesgo", destaca Casado. En este sentido, Idoia Salazar advierte de que "el mayor error que se puede cometer es querer usar la IA para todo, como se ha hecho en otras empresas o países, ya que puede llegar a fallar -o no ser útil- en el 40 o 50 por ciento de los casos".

   No obstante, en muchas ocasiones son las expectativas de la sociedad sobre la IA, influidas por la ciencia ficción, las que están equivocadas. Por ello, los expertos coinciden en la importancia de formar a los ciudadanos, tanto en competencias de IA como a nivel de comprensión general e información.

   Asimismo, los expertos han comparado la llegada de la IA y el efecto que puede tener en el mercado laboral con otros fenómenos históricos, como la extensión de las máquinas en el proceso de industrialización. "Llevamos 200 años conviviendo con las máquinas, pero la IA viene a sustituir capacidades cognitivas de las personas", ha señalado el ejecutivo de la Mutualidad de la Abogacía, que cree que esto "no tiene por qué ser malo si se forma a la gente en nuevas competencias".

   Todos los expertos coinciden en su diagnóstico en que hay que evitar el alarmismo y el recelo por la llegada de la IA. "No va a haber una destrucción masiva de empleo, sino muchos nuevos puestos y nuevos trabajos que surgirán", ha concluido Salazar.

Leer más acerca de: