MADRID, 3 Nov. (Portaltic/EP) -
El desarrollo de la Inteligencia Artificial (IA) supone también pensar sobre las implicaciones que tiene su aplicación en el día a día de las personas, una preocupación que crece entre los expertos de la industria, que demandan una 'IA responsable', basada en la transparencia.
La IA, especialmente el aprendizaje automático, funciona mediante el uso de inserciones de datos, de los que aprende y, a partir de eso, infiere conclusiones para hacer predicciones. Esto plantea dudas sobre la seguridad de las conclusiones que aporte un sistema de IA, si podrían hacer daño o contendrían sesgos que pudieran afectar a las personas.
En el entorno empresarial, donde la Inteligencia Artificial permite automatizar procesos o mejorar la experiencia del cliente, "el propósito principal de la IA debe ser brindar información que mejore la toma de decisiones", indica el director regional de OpenText en España y Portugal, Jorge Martínez. Eso supone que "poder confiar y depender de esa información es esencial".
Se trata de una preocupación presente en las empresas. El 51% de los ejecutivos considera que es importante garantizar que estos sistemas sean éticos y transparentes, como se desprende un estudio del Instituto de Investigación Capgemini, recogido por OpenText.
Acotando las cuestiones alrededor de la ética de las soluciones de IA que se crean dentro de cualquier entorno empresarial, desde OpenText señalan que él área de la ética que ha recibido mayor atención es el sesgo.
Los modelos de datos sesgados o los prejuicios de los desarrolladores se infiltran involuntariamente en el sistema de inteligencia artificial. "Ya sea un prejuicio inconsciente del creador del sistema o un sesgo integrado en el modelo de datos que éste utiliza, los resultados serán probablemente injustos, discriminatorios o simplemente incorrectos", apuntan en un comunicado.
Por otra parte, sobre los conceptos de responsabilidad y explicabilidad, entienden que es "esencial que cualquier acción que realice la tecnología pueda explicarse y auditarse por completo", es decir, "tiene que poder rendir cuentas".
Para ser responsable, el sistema de inteligencia artificial debe ser transparente. Sin embargo, como explican desde OpenText, muchas soluciones de IA adoptan un enfoque de "caja negra" que no permite la visibilidad de los algoritmos subyacentes.
Sin embargo, "la nueva generación de soluciones de IA que adopta el código abierto permite a las organizaciones integrar sus propios algoritmos y comparar la calidad de los mismos con sus propios datos", aseguran.
Por último, un punto clave en la creación de sistemas de IA es cómo trabajan estos con los datos, especialmente los personales, que se utilizan para completar sus modelos. Por ello, desde la compañía destacan que "se debe saber cómo y por qué se están procesando los datos y los riesgos involucrados".
El aprendizaje automático y el aprendizaje profundo requieren enormes conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán los resultados a lo largo del tiempo. Sin embargo, la regulación en torno a la privacidad -como el Reglamento General de Protección de Datos europeo- impone nuevos niveles de responsabilidad a las organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los datos personales que poseen.
La IA es "una tecnología que evoluciona continuada y rápidamente y está en pleno auge", advierte el responsable de OpenText, quien entiende que establecer un equipo directivo que supervise el uso de la IA a lo largo de toda la empresa puede ser una "buena práctica", así como elaborar un marco ético que describa "qué se supone que debe hacer la IA, cómo se debe generar y utilizar y cuáles son los resultados esperados".