GRANADA 25 Nov. (EUROPA PRESS) -
Una investigación doctoral en la Universidad de Granada aborda el desafío de dar una dimensión emocional a la Inteligencia Artificial (IA) con el desarrollo de un marco de autoaprendizaje diseñado para que estos sistemas aprendan y expresen patrones emocionales de manera autónoma.
El estudio, de Alberto Hernández Marcos, tiene por título 'LOVE', acrónimo de Latest Observed Values Encoding o, en español, Codificación de los últimos valores observados. Las emociones son fundamentales en la naturaleza de los seres vivos, evolucionando como un mecanismo clave para la supervivencia.
Sin embargo, los investigadores que han intentado dotar a las máquinas de esta ventaja natural, explica Hernández Marcos, "carecen de un marco claro para implementar emociones desde principios básicos. De hecho, los modelos actuales suelen basarse en soluciones específicas y rígidas que limitan mucho su capacidad de generalización".
A partir de ahí, su investigación se propuso establecer una base científica sólida que explique cómo las emociones pueden emerger espontáneamente de percepciones de agentes artificiales en su entorno, lograr su interpretación con un sistema para identificar las emociones aprendidas con patrones emocionales documentados en la literatura científica de manera automática y validar estos patrones emocionales a través de experimentos con observadores humanos.
El marco de trabajo combina principios de aprendizaje por refuerzo y aprendizaje no supervisado para analizar datos cruciales del entorno de un agente, como recompensas recientes, expectativas futuras y estados anticipados.
A través de una red neuronal entrenada con datos sin etiquetar, el sistema identifica patrones temporales que se asocian a emociones básicas. Esta red neuronal actúa como codificador emocional, una especie de sistema límbico artificial para la IA, que genera emociones sintéticas durante su funcionamiento.
EN DETALLE
LOVE cuenta también con la participación de la Facultad de Psicología de la UGR. Así, en uno de los experimentos se requería que un agente de IA que debía alunizar una nave en un paisaje rocoso e incierto adquirió ocho patrones emocionales distintos -sufrimiento, satisfacción o miedo, entre otros-, que fueron luego evaluados por su coherencia situacional y alineación con la dinámica emocional humana.
Para ello, en colaboración con investigadores de la Facultad de Psicología, se diseñó un estudio de atribución emocional en el que participantes humanos valoraron la correspondencia entre las emociones simuladas y las dimensiones clásicas de placer, activación y dominancia.
El estudio probó que los humanos podían inferir el estado emocional sintético del agente con bastante exactitud, que además se contrastó después con referencias académicas del campo de la psicología. En definitiva, los resultados clave del experimento muestran que el sistema identifica las emociones básicas al aprender patrones emocionales coherentes y situacionalmente relevantes, que reproducen dinámicas emocionales naturales.
También que los resultados son validables con observadores humanos, ya que los participantes del estudio demostraron una alta concordancia estadística en la identificación de las emociones simuladas, alineándolas estrechamente con los estados internos de los agentes.
Finalmente, se deducen numerosas aplicaciones prácticas ya que este marco puede integrarse en robots sociales, agentes conversacionales y sistemas educativos, con potencial de mejorar su capacidad para adaptarse a las dinámicas emocionales humanas.