Agenda Politécnica

IPN crea prototipo que traduce Lengua de Señas Mexicana a voz

El proyecto combina electrónica, programación e inteligencia artificial con el objetivo de fomentar la inclusión social de personas con discapacidad auditiva.

Con el propósito de facilitar la comunicación de personas con discapacidad auditiva, estudiantes del Instituto Politécnico Nacional (IPN) desarrollaron un prototipo capaz de traducir palabras y frases clave de la Lengua de Señas Mexicana a voz.

El proyecto, denominado “Reconocedor de gestos de la Lengua de Señas Mexicana utilizando señales mioeléctricas y sensores de posición“, fue creado por Valeria Ramos Vázquez y Pedro Martín Morales Flores, de Ingeniería Biónica en la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA).

La iniciativa integra programación, electrónica digital e inteligencia artificial, y busca impulsar la inclusión social de quienes enfrentan barreras en la comunicación cotidiana.

Tecnología aplicada

El prototipo funciona a través de un guante con sensores de posición y circuitos que captan señales mioeléctricas generadas por los músculos del brazo y antebrazo. Dichos datos son procesados y comparados con una base entrenada con algoritmos de machine learning, lo que permite reconocer el gesto y reproducir un audio correspondiente.

Con apoyo de la asociación civil Latido Sordo y del diccionario “Manos con voz”, los estudiantes delimitaron 13 frases de uso común como “buenos días”, “comer”, “por favor” o “de nada”.

La doctora Blanca Tovar, de la Academia de Sistemas de la UPIITA, destacó que la integración de sensores y señales de electromiografía permite identificar movimientos finos de los dedos y el brazo. Por su parte, el doctor Álvaro Anzueto subrayó que el sistema puede aprender a diferenciar gestos, reconocer qué significan y distinguirlos de otros.

Back to top button