Logo Computerhoy.com

¿Qué son las “cajas negras” de la inteligencia artificial que desconciertan a Google?

Enrique Luque de Gregorio

¿Qué son las “cajas negras” de la inteligencia artificial que desconciertan a Google?

Muchas veces se utiliza el término de "caja negra" para expresar algunas inquietudes que giran en torno a la inteligencia artificial. ¿A qué se refiere exactamente este concepto y qué riesgos podría suponer para los usuarios? 

La inteligencia artificial está de máxima actualidad y, en muchos sentidos, puede decirse que esta divide seriamente a los especialistas

Muchos expertos coinciden en los beneficios que la IA tendrá para el común de los mortales, mientras que otros advierten de que incluso puede traer consigo el fin de la humanidad tal y como la conocemos. 

En este contexto, en el que no faltan teorías propias de películas catastrofistas de ciencia ficción, es natural que se preste atención a cualquier declaración “inquietante”. Como cuando los responsables de Google advierten que no tienen del todo claro cómo funciona su propia IA. Es lo que suele conocerse como “cajas negras”. Un término que cada vez se usa más. 

¿Qué son las cajas negras de la inteligencia artificial?

Básicamente, las llamadas cajas negras dentro del mundo de la IA se refieren a modelos o sistemas de inteligencia artificial cuyo funcionamiento interno es opaco o difícil de comprender. Aunque estos modelos pueden producir resultados útiles, la manera en que llegan a esas conclusiones no está clara, ya que el proceso de toma de decisiones no es explicado de manera fácil de entender.

Uno de los ejemplos más claros en este sentido llegó de la mano de tres de los máximos responsables de Google: Sundar Pichai, CEO; Sissie Hsiao, Vicepresidenta; y James Manyika, Vicepresidente Senior. En una entrevista concedida a CBS reconocieron que no terminaban de comprender cómo llegaba la IA a algunas de sus capacidades. 

Para demostrar a qué se referían, los mandamases del gigante tecnológico pusieron un caso muy llamativo: su IA era capaz de comprender y traducir un idioma originario de Bangladesh sin que hubiese sido específicamente entrenada para ello. Algo que incluso llegaron a calificar de “inquietante”. Aunque siempre considerando las posibilidades de su tecnología de manera positiva. 

Sin embargo, aunque aquí la sorpresa que les dio la IA no tuviese ninguna connotación preocupante, más allá de lo desconcertante que fue para ellos saber cómo lo había logrado, hay otros casos en que sí pueden serlo. De hecho, las cajas negras son uno de los asuntos que más argumentos dan a quienes quieren ver a la IA como una amenaza más que como una ayuda.

¿Pueden ser las cajas negras de la IA un peligro?

Ilustración inteligencia artificial

Getty

Viéndolo desde un punto de vista estricto, no puede decirse que las cajas negras de la inteligencia artificial sean exactamente lo mismo que la llamada “singularidad”. Es decir, la capacidad de esta tecnología de mejorarse a ella misma, que tantos temen algunos, y a la que el propio Elon Musk ya ha puesto una fecha definitiva. 

Pero eso no quita que, en algunos casos, pueda resultar peligroso. Sin ir más lejos, siempre que la inteligencia artificial se llegue a utilizar dentro de la atención médica, el sistema judicial o incluso la toma de decisiones en la política pública.

En estos casos, siempre sería sumamente importante conocer a ciencia cierta cómo la IA llega a las conclusiones que llega y cómo las utilizan para tomar decisiones relevantes. Algo que, según parece, hoy por hoy no sucede del todo. 

Conoce cómo trabajamos en Computerhoy.