Logo Computerhoy.com

Investigador respaldado por Elon Musk afirma que la IA es incontrolable y que debería pararse ya

Inteligencia artificial

DepositPhotos

  • Otro experto en inteligencia artificial avisa de que los futuribles avances en este campo podrían ser peligrosos para la raza humana.
  • De esta forma, se une a otros grandes protagonistas en el terreno de la IA como Elon Musk, señalando que estos avances deberían controlarse.

Distintos expertos en tecnología están avisando sobre los riesgos que podría suponer que la inteligencia artificial pudiera prácticamente pensar por sí misma, y que pueda volverse contra la civilización humana.

De hecho, un experto en seguridad en inteligencia artificial, respaldado en su tiempo por Elon Musk, está avisando de que los laboratorios de inteligencia artificial están yendo demasiado lejos y muy rápido.

En concreto, así lo dice Roman V. Yampolskiy, un experto en seguridad e inteligencia artificial, que recibió años atrás financiación de Elon Musk para estudiar sistemas inteligentes avanzados.

Estos sistemas inteligentes avanzados forman parte del próximo libro de Roman V. Yampolskiy, y donde se avisa de los potenciales peligros de la IA que podrían hasta provocar una catástrofe existencial.

Roman V. Yampolskiy, quien también es profesor asociado de informática de la Universidad de Louisville, concluye en su libro que no hay pruebas de que se pueda evitar que la tecnología se vuelva deshonesta.

Señala que para controlar a la inteligencia artificial, debería ser modificable, y al mismo tiempo transparente y fácil de entender en el lenguaje humano.

"No es de extrañar que muchos consideren que este es el problema más importante al que se ha enfrentado la humanidad", comparte Yampsolskiy. "El resultado podría ser prosperidad o extinción, y el destino del universo está en juego".

No obstante, el profesor expresa su preocupación por las nuevas herramientas que están desarrollando en los últimos años y que plantean riesgos para la humanidad.

Y recientemente, el principal responsable de OpenAI y ChatGPT, Sam Altman, estuvo en una cumbre en Dubái en la que habló sobre los hipotéticos peligros en el avance de la inteligencia artificial.

“Hay algunas cosas allí que son fáciles de imaginar y en las que realmente salen mal. Y no estoy tan interesado en los robots asesinos que caminan por las calles en dirección a las cosas que van mal", dijo en la Cumbre Mundial en Dubái.

"Estoy mucho más interesado en los muy sutiles desajustes sociales en los que simplemente tenemos estos sistemas en la sociedad y, sin ninguna mala intención en particular, las cosas simplemente van terriblemente mal".

Por otra parte, el propio Elon Musk también expresó su preocupación hace unos meses. En concreto en 2023 firmó una carta junto a otros 33.000 expertos de la industria, en la que avisaban que los laboratorios de inteligencia artificial “están actualmente encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas, y ni siquiera sus creadores pueden comprender, predecir o controlar de manera confiable”. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.