agosto 31, 2025

Estudiantes del IPN desarrollan guante que verbaliza palabras de la Lengua de Señas Mexicana

Compartir
  • Facilita la comunicación con personas con discapacidad auditiva y está elaborado con una base de datos compuesta por gestos que entrenaron con el algoritmo de Machine Learning, una de las ramas de la inteligencia artificial (IA)
  • El reconocedor de gestos utiliza sensores de posición y fue generado por estudiantes de UPIITA que lograron traducir, a voz, palabras clave de la Lengua de Señas Mexicana

Palabras y frases clave de la Lengua de Señas Mexicana ya cuentan con voz. Esto, a partir de un proyecto desarrollado por estudiantes del Instituto Politécnico Nacional (IPN) que, mediante la integración de tecnologías de programación, electrónica digital e Inteligencia Artificial, entre otras, facilitará la comunicación e integración en la sociedad de las personas con discapacidad auditiva.

El proyecto denominado “Reconocedor de gestos de la lengua de señas mexicana utilizando señales mioeléctricas y sensores de posición” fue desarrollado por Valeria Ramos Vázquez y Pedro Martín Morales Flores, de Ingeniería Biónica, para obtener su título respectivo en la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA).

Este proyecto camina en concordancia con las directrices que, en materia educativa, y de ciencia y tecnología, ha delineado la Presidenta Claudia Sheinbaum Pardo, así como el titular de la Secretaría de Educación Pública (SEP), Mario Delgado Carrillo.

El prototipo reconoce ciertos gestos de la Lengua de Señas Mexicana mediante dos sistemas de adquisición de datos: un guante que tiene integrados sensores de posición y dos circuitos de señales mioeléctricas (pequeñas corrientes de energía que genera nuestro organismo al realizar un movimiento y que corre a través del músculo), conectados al brazo y antebrazo de una persona.

Los politécnicos explicaron que si bien en países como Estados Unidos y China ya existen dispositivos que traducen la lengua de señas a voz, en México aún falta avanzar en ese sentido.

Con el apoyo de la organización “Latido Sordo A. C.”, ubicada en Querétaro, y el respaldo del diccionario “Manos con voz. Diccionario de Lengua de Señas Mexicana”, del Gobierno de México, Ramos Vázquez y Morales Flores delimitaron 13 frases de uso común que desglosaron en gestos: buenos días; buenas noches; comer; noche; cómo; estar; te ayudo; me ayudas; por favor; necesitar; mal; bien y de nada.

A partir de dicha lista, elaboraron una base de datos compuesta por gestos que entrenaron con el algoritmo de Machine Learning (Aprendizaje automático), una de las ramas de la Inteligencia Artificial.

El proyecto integra además diversas tecnologías en la Lengua de Señas Mexicana, el método de la concatenación de gestos para formar frases y el uso de señales mioeléctricas.

Cuando el gesto se realiza, las señales se filtran y se procesan, se extraen características y se comparan con la base de datos. Es en ese momento del proceso que el sistema elige la más parecida y reproduce el audio.

La doctora Blanca Tovar Corona, de la Academia de Sistemas y de Posgrado en Tecnología Avanzada y Posgrado de Inteligencia Artificial y Ciencia de Datos en la UPIITA, señaló que este proyecto integra los sensores de movimiento y señales de electromiografía, lo que permite detectar los movimientos de los dedos y del brazo.

El integrante de la Academia de Biónica, también de UPIITA, el doctor Álvaro Anzueto Ríos, indicó que este sistema tiene la capacidad de aprender a diferenciar los gestos, porque no sólo es ejecutarlo, sino también qué representa y separarlo de 

About The Author

Related posts