Logo Computerhoy.com

Crea una inteligencia artificial capaz de traducir el lenguaje de signos en tiempo real

Crea una inteligencia artificial capaz de traducir el lenguaje de signos en tiempo real

Interesting Engineering

La inteligencia artificial cuenta con un sinfín de aplicaciones, pero algunas sorprenden más que otras y es justo el caso de la que ha creado una estudiante de ingeniería.

En los últimos años la inteligencia artificial ha cobrado una vital importancia en la vida de las personas y, es que, aunque parezca que solo se emplea en campos específicos; la realidad es que estamos rodeados de aplicaciones que emplean la inteligencia artificial como base para la resolución de problemas complejos.

De hecho, cada vez más organismos y empresas apuestan por la utilización de la inteligencia artificial. En muchos casos esta apuesta va ligada a un desarrollo económico y, normalmente, es el principal fin de dicho movimiento. Eso sí, no siempre es así y, a veces, surgen proyectos de corte interesante y filántropo.

Hace algunos años saltó a los medios una noticia bastante curiosa y, es que, se había desarrollado un guante que era capaz de traducir la lengua de signos en tiempo real. Sí, este guante era capaz de registrar la posición de los dedos y luego enviar dicha señal mediante Bluetooth a un ordenador o móvil.

En el ordenador o móvil la aplicación compatible lo que hacía era dar la traducción de lo que se había gesticulado. Vamos, un avance dispuesto a romper barreras y con mucho potencial. Eso sí, no es el único avance que se ha visto en esta materia. 

Priyanjali Gupta, estudiante de ingeniería en el Instituto de Tecnología Vellore de la India, ha empleado la inteligencia artificial para conseguir que la traducción de lenguaje de signos a inglés sea en tiempo real. La forma en la que ha conseguido esto es bastante compleja y se puede consultar accediendo directamente a su GitHub.

Lo que ha empleado Priyanjali Gupta para llevar a cabo esta inteligencia artificial ha sido una base de datos que ha creado desde cero. De hecho, ella ha tenido que sentarse delante de una cámara y hablar en lenguaje de signos para que la cámara captase los movimientos de las manos, tras esto se registraban sus correspondientes significados.

Por el momento el modelo que ha conseguido solo es capaz de traducir el lenguaje de signos a inglés en fotogramas estáticos, para que se haga en un vídeo se necesita que la inteligencia artificial tenga un entrenamiento mucho más profundo y durante más tiempo.

Lo cierto es que el avance por parte de Priyanjali Gupta supone un punto de inflexión en cuanto a inclusividad y, además, es un ejemplo claro acerca de todo lo que se puede conseguir utilizando la inteligencia artificial de una manera no destinada al beneficio.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.