Agenda Politécnica

Politécnicos desarrollan robot para terapia de autismo infantil

El humanoide contiene una cámara de profundidad colocada en su torso para captar los movimientos del usuario.

Ingenieros del Instituto Politécnico Nacional (IPN) fabricaron el torso de un robot humanoide, como herramienta de apoyo para terapias multisensoriales enfocadas a niños preadolescentes con autismo funcional.

El autismo presenta un amplio espectro de comportamiento, que va desde muy severo hasta apenas imperceptible, con niñas y niños a los que se les puede hablar, incluso tocar y para quienes un robot humanoide no representa una amenaza; ese grupo es al que va dirigido el prototipo”, indicó Evelin García, egresada de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (Upiita) y creadora del proyecto.

Los politécnicos utilizaron planos del torso, manos y cara de un robot humanoide InMoov, desarrollado en código abierto por el escultor francés Gaël Langevin, con propósitos educativos, y lo adaptaron a su propio proyecto de Robótica Educativa (RE) con el cual obtuvieron el grado en Ingeniería Biónica.

La primera fase del proyecto requirió más de 400 horas de impresión. La siguiente fase consistió en el reconocimiento de imágenes a través de una cámara Intel RealSense (de profundidad) colocada en el torso del robot.

Esta cámara permite que los dispositivos puedan captar y aprender de su entorno. La idea es que niñas y niños puedan imitar sus movimientos y el robot confirmará que lo estén haciendo correctamente”, detalló Ricardo Zavala egresado de Upiita.

El robot cuenta con seis servomotores que permiten el control de la posición, aceleración y velocidad, así como de nueve movimientos básicos, entre ellos, levantar los brazos de frente a 180 grados y de regreso, mover la cabeza para asentir o negar y mover la mandíbula al hablar.

Con asesoría de los profesores Yesenia Eleonor González, Álvaro Anzueto Ríos y José Gonzalo Solís Villela, los jóvenes realizaron una programación para la adquisición de imágenes por medio de las redes neuronales convolucionales YOLO (You only look once, que traducido quiere decir: Tú sólo ves una vez), un algoritmo de open source (fuente abierta) capaz de extraer todas las características de una imagen fija o de video, clasificarlas y detectarlas con precisión de forma autónoma.

Nosotros recabamos más de tres mil 500 imágenes para realizar terapias multisensoriales, enfocadas a la atención consciente, es decir, que el niño pueda entender lo que le están diciendo replique los movimientos que le solicitan que realice. Si se hace el movimiento correctamente prenderán unas luces led y una voz que dirá: bien hecho, vamos al siguiente movimiento”, explicaron los ingenieros en Biónica.

Para el desarrollo del prototipo, los politécnicos acudieron con especialistas en autismo, quienes explicaron que en México existen algunas salas multisensoriales donde las y los menores pueden reconocer colores y texturas, pero un robot enfocado a la socialización por atención consciente sería algo inédito y de gran utilidad para las terapias para niños con autismo funcional.

Back to top button