Logo Computerhoy.com

Retrasar el desarrollo de la IA 6 meses por su "potencial peligro": ¿es buena o mala idea?

Retrasar el desarrollo de la IA 6 meses por su potencial peligro, ¿a favor o en contra?
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Debido al rápido avance que la inteligencia artificial está experimentando, grandes líderes del sector se posicionan en contra de su desarrollo prematuro y han firmado una carta que propone una moratoria de 6 meses. ¿Es una buena o mala idea? Esto opinan algunos expertos.

A medida que la inteligencia artificial avanza a pasos agigantados, un grupo de expertos ha pedido una pausa. Han alertado sobre los efectos tan negativos que el desarrollo descontrolado podría tener sobre la humanidad si se continúa a este ritmo.

Para ponerte en contexto, hace unas semanas el Future of Life Institute, una organización sin ánimo de lucro —respaldada por la Fundación Musk—, publicó una carta abierta en la que pedía una pausa de 6 meses en la creación de sistemas de inteligencia artificial que sean más potentes que el ya actual servicio GPT-4 de OpenAI

La realidad es que el desarrollo de estos sistemas ha tomado una velocidad cada vez mayor, inalcanzable por los sistemas de seguridad y casi a años luz de poder tomar conciencia de todo lo que está sucediendo. Es por eso que varios líderes mundiales en este campo la firmaron como el cofundador de Apple, Steve Wozniak, y el jefe de Tesla, Elon Musk, entre muchos otros. Actualmente cuenta ya con 26.223 firmas.

La carta advierte sobre los riesgos potenciales para la sociedad y la humanidad a medida que los gigantes tecnológicos como Google y Microsoft también se han sumado a la competencia para construir herramientas de inteligencia artificial que puedan aprender de forma independiente.

El efecto ChatGPT: las redes sociales también se beneficiarán de la inteligencia artificial

Todo este revuelo se produce, como puedes ver, después del lanzamiento de GPT-4, un modelo de inteligencia artificial desarrollado por OpenAI con el respaldo de Microsoft. "Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", dice la carta.

"Los firmantes de la carta sugieren un mínimo de 6 meses, no exactamente 6 meses. Ahora bien, ¿por qué decir "al menos 6 meses" y no "al menos un año" o dos? Sería más realista, ciertamente, pero también dejaría en evidencia uno de los grandes problemas de esta propuesta: el conflicto entre el idealismo y un mercado en auge donde cada segundo cuenta y, si 6 meses ya son mucho tiempo, un año se vuelve totalmente inviable", explica para Computer Hoy Josué Pérez Suay, especialista en Inteligencia Artificial y ChatGPT. 

El problema ahora surge con la multitud de comentarios de grandes personalidades del mundo de la IA, tecnología en general o gurús que se posicionan en contra o a favor de esta moratoria. Sin embargo, y tomando como referencia a otras grandes figuras de este sector, hay quien piensa que retrasar el avance de la inteligencia artificial es absurdo y una terrible idea.

Desinformación, falta de seguridad y control humano: argumentos a favor de parar el desarrollo

Más especulativamente, la carta pregunta: "¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?"

Stuart Russell, profesor de informática en la Universidad de California, Berkeley —y firmante de la carta—, dijo a BBC News: "Los sistemas de IA presentan riesgos significativos para la democracia a través de la desinformación armada, para el empleo a través del desplazamiento de las habilidades humanas y para la educación a través del plagio y desmotivación".

Los nuevos y grandes retos en ciberseguridad: inteligencia artificial, 'ransomware' o 'hacktivismo'

De cara al futuro, añade que las IA avanzadas pueden representar una amenaza más general para el control humano sobre nuestra civilización. "A largo plazo, tomar precauciones sensatas es un pequeño precio a pagar para mitigar estos riesgos", agregó el profesor Russell.

Por otro lado, la publicación de un artículo de Eliezer Yudkovsky —un declarado enemigo del desarrollo a gran velocidad de la IA— que pedía detener el desarrollo de modelos GPT agregó combustible al fuego.

"El tema clave no es la inteligencia 'competitiva humana' (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta", explica.

Inteligencia Artificial

Muchos de ellos explican que para visualizar una inteligencia artificial sobrehumana hostil se debe pensar en toda una civilización 'alienígena' que tiene mayores capacidades cognitivas que el humano, que viven en los ordenadores y que podría llegar a considerar a las personas como enemigos.

Añaden que, sabiendo esto, una IA lo suficientemente inteligente no permanecerá dentro de sus jaulas por mucho tiempo. "En el mundo actual, se puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica", añade.

Como punto positivo y argumento a favor de la moratoria, el experto explica: "Los investigadores y desarrolladores podrían centrarse más en aspectos éticos, de seguridad y regulación de la IA en lugar de la competencia para desarrollar tecnologías más avanzadas. Esto podría permitir un enfoque más reflexivo y colaborativo en el desarrollo de protocolos de seguridad y marcos regulatorios".

El progreso no se puede detener y solo hay que regular la IA: argumentos en contra de parar el desarrollo

Algunos líderes como Sundar Pichai, CEO de Google, o Sam Altman, CEO de OpenAI, han dicho que no cumplirán con el llamado a hacer una pausa, afirmando que apoyan la regulación en lugar de una pausa. Por otro lado, Andrew Ng, fundador y CEO de Landing AI y Google Brain —considerado por muchos como el gran gurú y experto del sector— se posiciona claramente en este aspecto muy en contra del parón.

"La IA responsable es importante y la IA tiene riesgos. La narrativa popular de la prensa de que las empresas de IA se están volviendo locas enviando códigos inseguros no es cierta. La gran mayoría (lamentablemente, no todos) de los equipos de IA se toman en serio la IA responsable y la seguridad. Invirtamos más en seguridad mientras avanzamos en la tecnología, en lugar de sofocar el progreso", explica.

"Una moratoria de 6 meses no es una propuesta práctica. Para avanzar en la seguridad de la IA, las regulaciones sobre transparencia y auditoría serían más prácticas y marcarían una mayor diferencia", añade.

Regular la inteligencia artificial, una necesidad que muchos usuarios y empresas piden a gritos

Por lo que se puede observar en esta línea, parece haber menos partidarios de la petición que opositores, quienes tienen dos argumentos principales:

1. El progreso no se puede detener: la petición en realidad fue inventada por los competidores de OpenAI, algo que ya da que pensar y valorar de forma meditada. La realidad es que están viendo cómo esta empresa va demasiados pasos por delante del resto. Por otro lado, aseguran que China no esperará —como recordatorio, los mayores avances en IA provienen de Estados Unidos—.

"La pausa en el desarrollo podría resultar en un retraso en el avance de nuevas tecnologías y aplicaciones de IA en diversos sectores, lo que podría tener un impacto en la economía y la competitividad global", matiza Josué Pérez Suay.

"Si algunos países o empresas deciden no acatar la moratoria, podrían ganar una ventaja competitiva en el desarrollo de IA durante el período de pausa. Esto podría provocar desequilibrios en el progreso tecnológico y tensiones políticas entre naciones y empresas", añade el experto.

2. No debes tener miedo a la IA sino a las personas: GPT no tiene conciencia, voluntad o aspiraciones, por lo que no hay nada que temer. GPT-4 está increíblemente lejos de esclavizar al mundo porque no entiende nada, comete errores tontos y, en general, no podrá dirigir el mundo.

Además, si bien los modelos basados en inteligencia artificial cometen muchos errores, también pueden resolver grandes problemas que la personas no pueden. La tecnología siempre ha superado la capacidad humana para gestionarla, pero la historia ha demostrado que el enfoque más inteligente es seguir un camino paralelo al desarrollo de la tecnología sin tratar de frenar el progreso.

"En general, una moratoria en el desarrollo de la inteligencia artificial podría tener efectos significativos en la investigación y el desarrollo de IA en todos los sectores. Aunque podría haber desafíos y retrasos en el avance tecnológico, también podría proporcionar una oportunidad para abordar problemas éticos y de seguridad y desarrollar un enfoque más responsable y sostenible para la IA, aunque con el lanzamiento de GPT-4 hacer una moratoria no va a tener tanto impacto como algunos piensan", finaliza el experto.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.