Logo Computerhoy.com

Los modelos basados en IA serán entrenados para entender el lenguaje de personas discapacitadas

El futuro de la seguridad de nuestro móvil residirá en la Inteligencia Artificial.
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Mejorar el reconocimiento de voz mediante IA para las personas con discapacidad. Este es el gran objetivo de la Universidad de Illinois Urbana-Champaign (UIUC), en Estados Unidos, que actualmente colabora con los pesos pesados del mundo de Internet como Meta o Apple.

Los softwares de reconocimiento de voz mediante IA suelen tener dificultades para procesar el habla de personas con acentos fuertes, así que imagínate qué ocurre con aquellas personas que tienen discapacidades que afectan al habla. Se encuentran ante un grave problema ya que, al no estar representados, no pueden hacer uso de esta tecnología.

El Proyecto de Accesibilidad al Habla, lanzado el lunes y apoyado por Amazon, Apple, Google, Meta y Microsoft, así como por organizaciones sin ánimo de lucro, tiene como objetivo hacer que los modelos de reconocimiento del habla sean más eficaces para todos. Porque de poco sirve un gran avance si no puede ser usado por un porcentaje de la población humana bastante grande.

Pues bien, este recogerá y analizará muestras del habla de personas con una amplia gama de problemas del habla para entrenar nuevos modelos de IA capaces de entenderlos tan bien como cualquier otra persona.

"Hay millones de personas para las que la comunicación es una lucha diaria. Al unificar nuestros esfuerzos hacia un objetivo común de mejorar la accesibilidad del habla para las personas con discapacidades o diferencias en el habla, no sólo estamos mejorando la tecnología: estamos mejorando la calidad de vida y promoviendo la independencia", explica una profesora del proyecto.

Proyecto de Accesibilidad al Habla: cómo va a desarrollarse

El nuevo proyecto y las funciones relacionadas con él se basan en el trabajo previo de algunas empresas tecnológicas para ampliar el reconocimiento de voz para incluir a las personas con discapacidad. 

Google comenzó a probar el año pasado el Proyecto Relate para entrenar a los asistentes a entender a las personas con patrones de habla únicos. Por su parte, Alexa puede ser controlada directamente por personas con discapacidades del habla gracias a la asociación de Amazon con la startup de tecnología de reconocimiento de voz Voiceitt.

Apple HomePod mini

También existe una aplicación para iOS para ayudar a las personas con habla diferente. Y es que, Apple también se ha metido en este campo, investigando técnicas para ayudar a Siri a saber cuándo alguien tartamudea.

Todos estos avances se entremezclan en este nuevo proyecto en el que los investigadores se centrarán en obtener datos de audio de personas afectadas por enfermedades que afectan al habla, como la de Lou Gehrig, la esclerosis lateral amiotrófica (ELA), el Parkinson, la parálisis cerebral y el síndrome de Down. 

Todas las voces serán anónimas y se incluirán en un conjunto de datos para el entrenamiento de modelos de IA que permitan entender a las personas con esas deficiencias del habla. El proyecto se inicia en inglés de América, aunque seguro que se ampliará a otros idiomas en el futuro.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.