Los usuarios de Google Docs critican duramente los algoritmos de IA utilizados para la escritura asistida
Los algoritmos de inteligencia artificial utilizados por Google Docs están dando bastantes problemas a algunos usuarios que se quejan de cambios absurdos en sus escritos, que molestan más que aportan.
Una vez que los modelos de lenguajes están integrados en algunas apps, Google Docs está sumando nuevas funciones de escritura asistida para ayudar a los usuarios a escribir más rápido y mejor.
Y es que, más allá de las correcciones gramaticales y ortográficas, veremos sugerencias para mejorar el estilo de nuestra escritura a medida que redactamos el texto.
La escritura asistida se está introduciendo para los usuarios de las empresa básicamente, y la función está activada por defecto. El problema reside en que no todo el mundo está siendo partidario de ser guiado por el algoritmo, y algunas personas encuentran irritante su capacidad de lenguaje inclusivo absurdo.
Algunos ejemplos que encontramos es que palabras como "policías" pueden hacer que el modelo sugiera que se cambie por algo más neutral como "agentes de policía". Otro caso es el del cambio de "casero" por "propietario" o "dueño" o la eliminación automática de palabras malsonantes.
Pese a que este nuevo sistema es positivo para mejorar la escritura, ¿hasta qué punto realmente cumple esta función y no perjudica más que mejorar?
Existe un problema de base y es que, la escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunica la gente. Sin embargo, esto también significa que pueden reflejar algunos sesgos cognitivos humanos.
Con esto queremos decir que mientras los expertos se esfuerzan por crear un sistema inteligente perfecto, la imparcialidad en los modelos de aprendizaje automático está demostrando ser algo complicado de medir y mejorar.
Tratar de arreglar la equidad es difícil, no sólo porque la gente no se pone de acuerdo sobre lo que significa el término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra.
"Tenemos algunos problemas. Tenemos que resolver la ética. Tenemos que asegurarnos de que los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, vamos a crear un monstruo. Soy muy optimista y creo que, si prestamos atención, podremos resolver todas esas cuestiones", afirma el director general de IBM, Arvind Krishna
Redactora de Tecnología
Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.
Otros artículos interesantes:
- La Inteligencia Artificial será la protagonista. El papel que tendrá en este 2022
- Qué es inteligencia artificial, Machine learning y cómo mejora tu vida
- Todo lo que trae la Serie MSI: innovación y potencia para cualquier escenario
Conoce cómo trabajamos en Computerhoy.