LOVE, el proyecto de un investigador de la UGR para diseñar una IA capaz de aprender y expresar emociones

E+I+D+i - IndeGranada - Lunes, 25 de Noviembre de 2024
Las emociones, una de las asignaturas aún pendiente de la inteligencia artificial.
ugr
Las emociones, una de las asignaturas aún pendiente de la inteligencia artificial.

La inteligencia artificial está transformando múltiples aspectos de nuestra vida, pero hasta ahora ha carecido de una dimensión crucial: la emocional. La investigación doctoral de Alberto Hernández Marcos en la Universidad de Granada aborda ese desafío con el desarrollo de un marco de autoaprendizaje emocional para agentes de inteligencia artificial (IA), diseñado para que aprendan y expresen patrones emocionales de manera autónoma. Hernández Marcos considera “que este avance representa un paso importante hacia sistemas de IA más humanos y efectivos”. El estudio tiene por título LOVE, acrónimo de Latest Observed Values Encoding o, en español, Codificación de los últimos valores observados.

Las emociones son fundamentales en la naturaleza de los seres vivos, evolucionando como un mecanismo clave para la supervivencia. Sin embargo, los investigadores que han intentado dotar a las máquinas de esta ventaja natural, explica Hernández Marcos, “carecen de un marco claro para implementar emociones desde principios básicos. De hecho, los modelos actuales suelen basarse en soluciones específicas y rígidas que limitan mucho su capacidad de generalización”. A partir de ahí, su investigación se propuso establecer una base científica sólida que explique cómo las emociones pueden emerger espontáneamente de percepciones de agentes artificiales en su entorno, lograr su interpretación con un sistema para identificar las emociones aprendidas con patrones emocionales documentados en la literatura científica de manera automática y validar estos patrones emocionales a través de experimentos con observadores humanos.

Red neuronal entrenada

El marco de trabajo combina principios de aprendizaje por refuerzo y aprendizaje no supervisado para analizar datos cruciales del entorno de un agente, como recompensas recientes, expectativas futuras y estados anticipados. A través de una red neuronal entrenada con datos sin etiquetar, el sistema identifica patrones temporales que se asocian a emociones básicas. Esta red neuronal actúa como codificador emocional, una especie de sistema límbico artificial para la IA, que genera emociones sintéticas durante su funcionamiento.

LOVE cuenta también con la participación de la Facultad de Psicología de la UGR. Así, en uno de los experimentos se requería que un agente de IA  que debía alunizar una nave en un paisaje rocoso e incierto adquirió ocho patrones emocionales distintos –sufrimiento, satisfacción o miedo, entre otros–,  que fueron luego evaluados por su coherencia situacional y alineación con la dinámica emocional humana.

Para ello, en colaboración con  investigadores de la Facultad de Psicología, se diseñó un estudio de atribución emocional en el que participantes humanos valoraron la correspondencia entre las emociones simuladas y las dimensiones clásicas de placer, activación y dominancia. El estudio probó que los humanos podían inferir el estado emocional sintético del agente con bastante exactitud, que además se contrastó después con referencias académicas del campo de la psicología.

El sistema identifica emociones básicas

En definitiva, los resultados clave del experimento muestran que el sistema identifica las emociones básicas al aprender patrones emocionales coherentes y situacionalmente relevantes, que reproducen dinámicas emocionales naturales. También que los resultados son validables con observadores humanos, ya que los participantes del estudio demostraron una alta concordancia estadística en la identificación de las emociones simuladas, alineándolas estrechamente con los estados internos de los agentes. Finalmente, se deducen numerosas aplicaciones prácticas ya que este marco puede integrarse en robots sociales, agentes conversacionales y sistemas educativos, con potencial de mejorar su capacidad para adaptarse a las dinámicas emocionales humanas.

El marco desarrollado no solo amplía la comprensión científica de cómo las emociones pueden surgir en sistemas artificiales, sino que también sienta las bases para nuevas aplicaciones prácticas, según la UGR. Entre las posibles áreas de impacto se incluyen la salud, con robots capaces de interactuar emocionalmente con pacientes para mejorar su bienestar, la educación, con tutores virtuales que adapten su comportamiento a las emociones de los estudiantes, la interacción social, con sistemas conversacionales que respondan de manera más natural y empática, o el entretenimiento, con personajes dotados de comportamientos más realistas y acordes a cada situación. 

La UGR esttima que en el futuro este enfoque podrá extenderse para abarcar emociones más complejas y su integración en escenarios avanzados como la robótica autónoma o la inteligencia colectiva.