Logo Computerhoy.com

Los usuarios de Google Docs critican duramente los algoritmos de IA utilizados para la escritura asistida

Google Docs
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Los algoritmos de inteligencia artificial utilizados por Google Docs están dando bastantes problemas a algunos usuarios que se quejan de cambios absurdos en sus escritos, que molestan más que aportan.

Una vez que los modelos de lenguajes están integrados en algunas apps, Google Docs está sumando nuevas funciones de escritura asistida para ayudar a los usuarios a escribir más rápido y mejor. 

Y es que, más allá de las correcciones gramaticales y ortográficas, veremos sugerencias para mejorar el estilo de nuestra escritura a medida que redactamos el texto.

La escritura asistida se está introduciendo para los usuarios de las empresa básicamente, y la función está activada por defecto. El problema reside en que no todo el mundo está siendo partidario de ser guiado por el algoritmo, y algunas personas encuentran irritante su capacidad de lenguaje inclusivo absurdo.

Qué es inteligencia artificial, Machine learning y cómo mejora tu vida

Algunos ejemplos que encontramos es que palabras como "policías" pueden hacer que el modelo sugiera que se cambie por algo más neutral como "agentes de policía". Otro caso es el del cambio de  "casero" por "propietario" o "dueño" o la eliminación automática de palabras malsonantes.

Pese a que este nuevo sistema es positivo para mejorar la escritura, ¿hasta qué punto realmente cumple esta función y no perjudica más que mejorar? 

Existe un problema de base y es que, la escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunica la gente. Sin embargo, esto también significa que pueden reflejar algunos sesgos cognitivos humanos.

Se desarrolla la primera lentilla verdaderamente inteligente del mundo

Con esto queremos decir que mientras los expertos se esfuerzan por crear un sistema inteligente perfecto, la imparcialidad en los modelos de aprendizaje automático está demostrando ser algo complicado de medir y mejorar.

Tratar de arreglar la equidad es difícil, no sólo porque la gente no se pone de acuerdo sobre lo que significa el término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra.

"Tenemos algunos problemas. Tenemos que resolver la ética. Tenemos que asegurarnos de que los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, vamos a crear un monstruo. Soy muy optimista y creo que, si prestamos atención, podremos resolver todas esas cuestiones", afirma el director general de IBM, Arvind Krishna

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.