Logo Computerhoy.com

¿Realmente la IA podría suponer la extinción de la raza humana? Esto opinan los expertos

¿Realmente la IA podría suponer la extinción de la raza humana?
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Cada vez son más las voces que alertan sobre una posible extinción humana si no se regula el exponencial progreso de la inteligencia artificial. ¿Es realmente posible que esto acabe destruyendo todo lo que conocemos?

La posibilidad de que la inteligencia artificial suponga la extinción humana es un tema bastante preocupante que ha capturado la atención de científicos, expertos en tecnología y filósofos por igual. 

A medida que la IA continúa avanzando y desarrollando capacidades cada vez más complejas, surgen preguntas acerca de los posibles riesgos que podrían surgir de una inteligencia artificial superinteligente (ASI).

Si recuerdas, hace escasos días cientos de los principales científicos e investigadores de IA, incluido el director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Google DeepMind, Demis Hassabis, nuevamente expresaron su preocupación por el futuro de la humanidad, firmando una carta abierta al público que tenía como objetivo exponer los riesgos de esta tecnología.

"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear", decía la carta, firmada por muchas de las figuras más respetadas de la industria.

Los expertos opinan: ¿está alcanzando la inteligencia artificial las capacidades humanas?

Estos líderes advierten de forma literal que la inminente revolución de la IA debe tomarse tan en serio como la amenaza de una guerra nuclear. Están suplicando a los legisladores que levanten algunas barreras y establezcan regulaciones de referencia para protegerse de potenciales peligros antes de que sea demasiado tarde.

"Al igual que con la energía nuclear, se ha sugerido la creación de un organismo internacional que supervise el desarrollo y la implementación de la IA. Esta entidad podría ser similar a la Agencia Internacional de Energía Atómica (AIEA), y sería responsable de mantener la seguridad y el control sobre el uso de la IA", añade Josué Pérez Suay, especialista en Inteligencia Artificial y ChatGPT, en una entrevista para Computer Hoy.

¿Acabará la IA con la humanidad? existe la posibilidad pero se desconoce. Primero vayamos paso a paso

Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, calificó en un artículo de la CNN la situación como "una reminiscencia de los científicos atómicos que emiten advertencias sobre las mismas tecnologías que han creado".

"Hay muchos 'riesgos importantes y urgentes de la IA', no solo el riesgo de extinción; por ejemplo, sesgo sistémico, información errónea, uso malicioso, ataques cibernéticos y armamento", continuó Hendrycks. "Todos estos son riesgos importantes que también deben abordarse". 

En la actualidad, la inteligencia artificial tiene un papel destacado en la generación y distribución de información a través de algoritmos y sistemas de recomendación. "La tecnología de la IA sigue avanzando rápidamente, y es un desafío anticipar todos los posibles problemas y desarrollar salvaguardias efectivas para prevenirlos", añade el experto entrevistado.

Estos algoritmos pueden verse influenciados por diversos factores, como sesgos implícitos, intereses comerciales o manipulación intencional, lo que puede llevar a la propagación de noticias falsas, teorías de conspiración y desinformación generalizada. 

Esta desinformación puede tener consecuencias perjudiciales para la sociedad, ya que puede distorsionar la percepción de la realidad, socavar la confianza en las instituciones e incluso influir en procesos políticos y electorales.

La "alucinación" de la inteligencia artificial, el gran error y potencial peligro de esta tecnología

Además, es importante tener en cuenta que la IA no es una entidad autónoma con intenciones propias, sino una herramienta creada y controlada por seres humanos. 

Por lo tanto, la responsabilidad recae en nosotros como sociedad de asegurarnos que la IA se utilice de manera ética y responsable. Esto implica establecer regulaciones adecuadas y principios éticos sólidos para guiar su desarrollo y aplicación.

Antes de considerar la posibilidad de una extinción humana debido a la IA, es fundamental abordar los desafíos más urgentes y actuales. Vayamos paso a paso, porque al tomar medidas para combatir los problemas de hoy podemos aprovechar el potencial positivo de la IA y garantizar que se utilice de manera segura y en beneficio de la sociedad en general.

"A pesar del potencial riesgo de la IA, las grandes tecnológicas occidentales están convencidas de que el avance de la tecnología no se debe frenar. En su lugar, lo que hay que hacer es crear normativas que controlen el desarrollo y estándares de seguridad", añade el experto. "La IA tiene un gran potencial para ayudarnos a abordar algunos de los desafíos globales más urgentes, incluyendo el cambio climático, la escasez de recursos, la seguridad alimentaria y la salud global, entre otros", finaliza Josué Pérez Suay.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.