Politécnicos buscan mejorar interacción entre robots y personas con IA
El proyecto de Jonathan Axel Cruz intenta identificar emociones mediante inteligencia artificial.
El futuro nos ha alcanzado. Si bien aún falta para que veamos humanoides como los de las películas, los robots están cada vez más presentes en nuestras vidas y gracias a la inteligencia artificial (IA) son capaces de interactuar con humanos.
En el Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional (IPN), Jonathan Axel Cruz Vázquez, trabaja como parte de su tesis doctoral, en un proyecto para mejorar el entendimiento entre las máquinas y las personas a través del reconocimiento de emociones.
“Es un modelo emotivo, lo que trata de hacer éste, es reconocer emociones a través de señales de encefalograma 46 para poder tener una. Hay pequeños proyectos en los que ya se trata de tener esa interacción como algunos robots que a través de nuestro reconocimiento facial responden a nuestras emociones, en una parte superficial, yo muestro una sonrisa y ellos también o actúan de cierta forma, pero como tal algo que reconozca totalmente nuestras emociones, no”, explicó.
Un casco con electrodos que se colocan en la cabeza, permite a Jonathan registrar la actividad cerebral, en particular las emociones que experimentan las personas al ver videos emotivos.
“Ellos tienen que identificar, en una parte, cuando sientan la emoción de felicidad, por ejemplo, y nosotros lo monitoreamos con el dispositivo EGG y cuando la sientan oprimen un botón en el teclado y es también una marca para saber precisamente cuál es la emoción”, explicó el especialista.
Asimismo, señaló que estas emociones se analizan mediante IA, ya que es una representación básicamente de cómo funciona el cerebro, de cómo percibimos las cosas y también mejoras a esa percepción.
“Números asociados a emociones, emociones que son nuestras, entonces hay algoritmos que podemos tratar toda esa información y ahí podemos tener un ejemplo de inteligencia artificial”, comentó Jesús Montiel Pérez, del Centro de Investigación en Computación del IPN.
En breve, los resultados permitirán a Jonathan programar esas emociones en avatares y robots.
“Mi siguiente paso sería aplicar este modelo de emociones a algún tipo de avatar, para que pueda reconocerse y que interactúe con la persona”, explicó.
La idea, dice, es que su investigación tenga aplicaciones prácticas en los robots.
“Me gustaría que pudiera aplicarse, como puse de ejemplo, los robots de servicio o algo más para que no se quedara simplemente en la investigación”, puntualizó.