Logo Computerhoy.com

Las cajas negras también existen en inteligencia artificial y no sirven para lo que piensas

Las cajas negras también existen en inteligencia artificial y no sirven para lo que piensas
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

El concepto de caja negra no solo está relacionado con los aviones y tiene un curioso y relevante significado si se asocia al sector de la inteligencia artificial. 

El concepto de "caja negra" seguro que ya lo has escuchado millones de veces. Es probable que lo asocies a ese dispositivo que graba y almacena parámetros de un avión —aunque no es negra—, pero también tiene un curioso y quizá desconocido significado asociado a la inteligencia artificial.

En este contexto hace referencia a una herramienta o modelo, como puede ser GPT-4, cuyo funcionamiento interno no es transparente o comprensible para aquellos que están fuera, es decir, los usuarios o expertos que no han participado en su desarrollo. 

La relevancia de las cajas negras en inteligencia artificial radica en que muchos modelos de aprendizaje automático, como las redes neuronales profundas, pueden ser extremadamente complejos, con millones o incluso miles de millones de parámetros. 

Estos modelos son capaces de aprender a partir de grandes conjuntos de datos, encontrar patrones complejos y tomar decisiones sofisticadas, pero a menudo son incomprensibles para el resto debido a que se oculta. Pese a que esto pueda sonar raro, la verdad es que hay una muy buena razón para hacerlo así.

Tú también desarrollaría un modelo de IA haciendo uso de este concepto

En ciertos casos, existen claras ventajas o razones muy lógicas para considerar un modelo como una "caja negra" en inteligencia artificial. 

Destacan muchas pero quizá la más obvia es la que hacer referencia a la propiedad intelectual. En ocasiones, el conocimiento interno y exclusivo de un modelo puede considerarse un activo valioso y confidencial para una empresa. Mantener ciertos detalles del modelo en forma de "caja negra" puede ayudar a proteger la propiedad intelectual asociada y evitar la revelación de información sensible.

verticalImage1685105811739

Por otro lado, esto también evita que otras compañías tomen como referencia los datos con los que ha sido entrenado el modelo o cuántos parámetros tiene. OpenAI, por ejemplo, es muy cautelosa a la hora de ofrecer toda la información y los parámetros utilizados para entrenar en este caso a GPT-4.

Prefieren no decirlo para evitar que otras empresas como Google, que desarrollan también grandes modelos de lenguaje, tengan una referencia a batir.

Eso sí, con herramientas como ChatGPT, entre otras, ya se ha demostrado que el número de parámetros no lo es todo, sino que la arquitectura, la cantidad de datos y la calidad también desempeñan un papel importante en el entrenamiento y aquí es donde radica la exclusividad y la necesidad de mantenerlo oculto.

Si bien muchas compañías abogan por la transparencia con el objetivo de que los avances continúen, es importante reconocer que la consideración de un modelo como una "caja negra" no es algo negativo en todas las situaciones. 

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.