El lenguaje de signos es la salvación de muchos para poderse hacer entender. Pero la persona que tienen en frente debe saber descifrar el lenguaje para saber que está expresando.
Es por ello que una estudiante de ingeniería en el Instituto de Tecnología Vellore (India) llamada Priyanjali Gupta, ha desarrollado, mediante inteligencia artificial, una aplicación de traducción en tiempo real. La estudiante a creado e implementado una base de datos para ello. Situada delante de una pantalla, ha ido gesticulando cada palabra y cada símbolo para que la IA pueda aprender el lenguaje. De este modo se ha ido almacenando y reconociendo cada gesto para su descifrado final.
Inicialmente el sistema desarrollado por Priyanjali traduce el lenguaje en fotogramas estáticos. Ahora es necesario realizar un aprendizaje profundo para que la Inteligencia Artificial amplie su capacidad de reconocimiento.
El inicio del proyecto para el lenguaje de signos
La idea se originó mientras la joven estudiante utilizaba el asistente de voz Alexa. Pensó que el mismo asistente podría ofrecer una forma más intuitiva de comunicación con las personas con una discapacidad comunicativa en el habla o audición. Pero el desarrollo no se queda aquí. Tiene un objetivo mucho más amplio pero dificultoso. Este proyecto podría venir frenado por las fronteras, ya que el lenguaje necesita de un contexto para poder ser traducido correctamente.
Teniendo en cuenta que en el planeta hay unos cuantos millones de personas con alguna discapacidad que les dificulta la comunicación, no estaría de más que se subvencionase el proyecto para que llegue a buen puerto. Esperemos que así sea y muchas personas dejen de estar excluidas socialmente para desarrollarse solo en entornos donde les entienden.
¿Ya tienes asistente de voz en casa? Cuéntanos si conoces algún caso en el que las personas tengan esta dificultad, y cómo se desarrollan en el día a día para superar las adversidades.