Logo Computerhoy.com

El misterio de qué se esconde detrás de las IA como ChatGPT trae de cabeza a los investigadores

El misterio de qué se esconde detrás de las IA como ChatGPT trae de cabeza a los investigadores
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Pese a las grandes capacidades de chatbots basados en inteligencia artificial como ChatGPT, lo que se esconde detrás de ellos y sus respuestas sigue siendo todo un misterio para la sociedad e investigadores que luchan por abrir esa "caja negra" en la que se encuentran.

Aunque el famoso Test de Turing ha sido considerada inadecuada para evaluar la inteligencia artificial en la actualidad, el auge de los Modelos de Lenguaje Grande (LLM) ha reavivado la relevancia del lenguaje en la IA y comprender cómo se lleva a cabo este proceso.

Para contextualizar, esta prueba es una medida de la capacidad de una máquina para exhibir un comportamiento inteligente que no se puede distinguir del de un humano. La prueba fue propuesta por el matemático e informático británico Alan Turing en 1950 e involucra a un evaluador humano que entabla una conversación en lenguaje natural con una máquina y un humano.

Lo cierto es que pese a que es una prueba bastante antigua, la base del concepto que se esconde detrás es muy acertado aun estando en 2023. Turing pensó que la conversación humana se encontraba entre las cosas más "inteligentes" que podía hacer una máquina, de ahí esta prueba. 

Los Modelos de Lenguaje Grande, como el chatbot ChatGPT de OpenAI, han demostrado grandes habilidades en este campo, pero el gran problema de base es que también presentan desafíos y peligros, siendo considerados "cajas negras" debido a su comportamiento desconocido incluso para aquellos que han desarrollado esas herramientas. 

Cómo funciona un LLM y por qué se considera que tiene una naturaleza de caja negra

Los Modelos de Lenguaje Grande aprenden a través de enormes cantidades de texto, lo que les permite predecir palabras y frases en conversaciones o creación de textos. Ajustan sus resultados mediante prueba y error y pueden mejorar gracias a las correcciones humanas. 

Esta capacidad de realizar una amplia gama de tareas, como redacción de ensayos, resúmenes y codificación, ha despertado tanto entusiasmo como preocupación sobre el impacto de la IA en la sociedad. Sin embargo, los LLM también han mostrado ser frágiles, ya que pequeñas perturbaciones en las preguntas pueden desequilibrarlos, lo que innegablemente muestra que aún no son 100% fiables.

La inteligencia artificial revoluciona el sector del automóvil: "Es nuestra aliada para pasar de una tarea tediosa a una solución"

El gran problema es que los mecanismos exactos que impulsan el comportamiento de los LLM son en gran medida desconocidos, incluso para sus creadores, debido a su entrenamiento mediante procesos de capacitación en lugar de especificaciones programadas. 

Esto los convierte en cajas negras, lo que significa que no se comprende completamente cómo toman decisiones o por qué responden de ciertas maneras. Esta falta de transparencia y comprensión que se esconde por debajo es un desafío y un peligro potencial para el despliegue seguro y sobre todo ético de la inteligencia artificial.

Inteligencia artificial y fake news: ChatGPT y su potencial para difundir información falsa

En ciertos casos, existen claras ventajas o razones muy lógicas para considerar un modelo como una "caja negra" en inteligencia artificial

Destacan muchas, pero quizá la más obvia es la que hacer referencia a la propiedad intelectual. En ocasiones, el conocimiento interno y exclusivo de un modelo puede considerarse un activo valioso y confidencial para una empresa. Mantener ciertos detalles del modelo en forma de "caja negra" puede ayudar a proteger la propiedad intelectual asociada y evitar la revelación de información sensible.

Sin embargo, parece que este punto positivo para las empresas desarrolladores es realmente lo contrario para el resto de población, ya sea la sociedad en general o los propios investigadores.

Tal y como informa Nature, los científicos están tratando de evaluar las verdaderas capacidades de los LLM y los mecanismos escondidos que los impulsan. Michael Frank, científico cognitivo de la Universidad de Stanford en California, describe la tarea como parecida a investigar una "inteligencia alienígena". 

Comprender el porqué o, en pocas palabras, el mecanismo que causa el comportamiento de estas herramientas basadas en inteligencia artificial es realmente importante, ya que permite también a los investigadores predecir cómo funcionará en diferentes contextos y que esto no termine yéndose de las manos.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.