Retrasar el desarrollo de la IA 6 meses por su "potencial peligro": ¿es buena o mala idea?
Debido al rápido avance que la inteligencia artificial está experimentando, grandes líderes del sector se posicionan en contra de su desarrollo prematuro y han firmado una carta que propone una moratoria de 6 meses. ¿Es una buena o mala idea? Esto opinan algunos expertos.
A medida que la inteligencia artificial avanza a pasos agigantados, un grupo de expertos ha pedido una pausa. Han alertado sobre los efectos tan negativos que el desarrollo descontrolado podría tener sobre la humanidad si se continúa a este ritmo.
Para ponerte en contexto, hace unas semanas el Future of Life Institute, una organización sin ánimo de lucro —respaldada por la Fundación Musk—, publicó una carta abierta en la que pedía una pausa de 6 meses en la creación de sistemas de inteligencia artificial que sean más potentes que el ya actual servicio GPT-4 de OpenAI.
La realidad es que el desarrollo de estos sistemas ha tomado una velocidad cada vez mayor, inalcanzable por los sistemas de seguridad y casi a años luz de poder tomar conciencia de todo lo que está sucediendo. Es por eso que varios líderes mundiales en este campo la firmaron como el cofundador de Apple, Steve Wozniak, y el jefe de Tesla, Elon Musk, entre muchos otros. Actualmente cuenta ya con 26.223 firmas.
La carta advierte sobre los riesgos potenciales para la sociedad y la humanidad a medida que los gigantes tecnológicos como Google y Microsoft también se han sumado a la competencia para construir herramientas de inteligencia artificial que puedan aprender de forma independiente.
Todo este revuelo se produce, como puedes ver, después del lanzamiento de GPT-4, un modelo de inteligencia artificial desarrollado por OpenAI con el respaldo de Microsoft. "Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", dice la carta.
"Los firmantes de la carta sugieren un mínimo de 6 meses, no exactamente 6 meses. Ahora bien, ¿por qué decir "al menos 6 meses" y no "al menos un año" o dos? Sería más realista, ciertamente, pero también dejaría en evidencia uno de los grandes problemas de esta propuesta: el conflicto entre el idealismo y un mercado en auge donde cada segundo cuenta y, si 6 meses ya son mucho tiempo, un año se vuelve totalmente inviable", explica para Computer Hoy Josué Pérez Suay, especialista en Inteligencia Artificial y ChatGPT.
El problema ahora surge con la multitud de comentarios de grandes personalidades del mundo de la IA, tecnología en general o gurús que se posicionan en contra o a favor de esta moratoria. Sin embargo, y tomando como referencia a otras grandes figuras de este sector, hay quien piensa que retrasar el avance de la inteligencia artificial es absurdo y una terrible idea.
Desinformación, falta de seguridad y control humano: argumentos a favor de parar el desarrollo
Más especulativamente, la carta pregunta: "¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?"
Stuart Russell, profesor de informática en la Universidad de California, Berkeley —y firmante de la carta—, dijo a BBC News: "Los sistemas de IA presentan riesgos significativos para la democracia a través de la desinformación armada, para el empleo a través del desplazamiento de las habilidades humanas y para la educación a través del plagio y desmotivación".
De cara al futuro, añade que las IA avanzadas pueden representar una amenaza más general para el control humano sobre nuestra civilización. "A largo plazo, tomar precauciones sensatas es un pequeño precio a pagar para mitigar estos riesgos", agregó el profesor Russell.
Por otro lado, la publicación de un artículo de Eliezer Yudkovsky —un declarado enemigo del desarrollo a gran velocidad de la IA— que pedía detener el desarrollo de modelos GPT agregó combustible al fuego.
"El tema clave no es la inteligencia 'competitiva humana' (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta", explica.
Muchos de ellos explican que para visualizar una inteligencia artificial sobrehumana hostil se debe pensar en toda una civilización 'alienígena' que tiene mayores capacidades cognitivas que el humano, que viven en los ordenadores y que podría llegar a considerar a las personas como enemigos.
Añaden que, sabiendo esto, una IA lo suficientemente inteligente no permanecerá dentro de sus jaulas por mucho tiempo. "En el mundo actual, se puede enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificiales o arranque directamente a la fabricación molecular posbiológica", añade.
Como punto positivo y argumento a favor de la moratoria, el experto explica: "Los investigadores y desarrolladores podrían centrarse más en aspectos éticos, de seguridad y regulación de la IA en lugar de la competencia para desarrollar tecnologías más avanzadas. Esto podría permitir un enfoque más reflexivo y colaborativo en el desarrollo de protocolos de seguridad y marcos regulatorios".
El progreso no se puede detener y solo hay que regular la IA: argumentos en contra de parar el desarrollo
Algunos líderes como Sundar Pichai, CEO de Google, o Sam Altman, CEO de OpenAI, han dicho que no cumplirán con el llamado a hacer una pausa, afirmando que apoyan la regulación en lugar de una pausa. Por otro lado, Andrew Ng, fundador y CEO de Landing AI y Google Brain —considerado por muchos como el gran gurú y experto del sector— se posiciona claramente en este aspecto muy en contra del parón.
"La IA responsable es importante y la IA tiene riesgos. La narrativa popular de la prensa de que las empresas de IA se están volviendo locas enviando códigos inseguros no es cierta. La gran mayoría (lamentablemente, no todos) de los equipos de IA se toman en serio la IA responsable y la seguridad. Invirtamos más en seguridad mientras avanzamos en la tecnología, en lugar de sofocar el progreso", explica.
"Una moratoria de 6 meses no es una propuesta práctica. Para avanzar en la seguridad de la IA, las regulaciones sobre transparencia y auditoría serían más prácticas y marcarían una mayor diferencia", añade.
Por lo que se puede observar en esta línea, parece haber menos partidarios de la petición que opositores, quienes tienen dos argumentos principales:
1. El progreso no se puede detener: la petición en realidad fue inventada por los competidores de OpenAI, algo que ya da que pensar y valorar de forma meditada. La realidad es que están viendo cómo esta empresa va demasiados pasos por delante del resto. Por otro lado, aseguran que China no esperará —como recordatorio, los mayores avances en IA provienen de Estados Unidos—.
"La pausa en el desarrollo podría resultar en un retraso en el avance de nuevas tecnologías y aplicaciones de IA en diversos sectores, lo que podría tener un impacto en la economía y la competitividad global", matiza Josué Pérez Suay.
"Si algunos países o empresas deciden no acatar la moratoria, podrían ganar una ventaja competitiva en el desarrollo de IA durante el período de pausa. Esto podría provocar desequilibrios en el progreso tecnológico y tensiones políticas entre naciones y empresas", añade el experto.
2. No debes tener miedo a la IA sino a las personas: GPT no tiene conciencia, voluntad o aspiraciones, por lo que no hay nada que temer. GPT-4 está increíblemente lejos de esclavizar al mundo porque no entiende nada, comete errores tontos y, en general, no podrá dirigir el mundo.
Además, si bien los modelos basados en inteligencia artificial cometen muchos errores, también pueden resolver grandes problemas que la personas no pueden. La tecnología siempre ha superado la capacidad humana para gestionarla, pero la historia ha demostrado que el enfoque más inteligente es seguir un camino paralelo al desarrollo de la tecnología sin tratar de frenar el progreso.
"En general, una moratoria en el desarrollo de la inteligencia artificial podría tener efectos significativos en la investigación y el desarrollo de IA en todos los sectores. Aunque podría haber desafíos y retrasos en el avance tecnológico, también podría proporcionar una oportunidad para abordar problemas éticos y de seguridad y desarrollar un enfoque más responsable y sostenible para la IA, aunque con el lanzamiento de GPT-4 hacer una moratoria no va a tener tanto impacto como algunos piensan", finaliza el experto.
Redactora de Tecnología
Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.
Otros artículos interesantes:
- Cómo crear una contraseña segura a prueba de inteligencia artificial
- ChatGPT y la inteligencia artificial harían de la semana laboral de 4 días una realidad
- Todo lo que trae la Serie MSI: innovación y potencia para cualquier escenario
Conoce cómo trabajamos en Computerhoy.