Logo Computerhoy.com

Sam Altman, CEO de OpenAI confiesa que hay algo que no le deja dormir y no, no es una conquista robot del mundo

Sam Altman

Gettyimages/ComputerHoy

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

  • Sam Altman, el gran CEO de la inteligencia artificial a día de hoy, parece que no descansa muy bien por las noches y hay algunos temas que le mantienen en vela.
  • Teniendo en cuenta quién es, no, el tema de las facturas, pagos, llevar a los niños al cole y demás, parece que de momento no le perturban. En su caso, es algo que afecta a la sociedad por completo.

Sam Altman, el CEO de OpenAI y figura detrás de herramientas como ChatGPT, tiene una preocupación que lo mantiene despierto por la noche, y no, no se trata de robots asesinos estilo Terminator o tener que pagar las facturas.

Lo que realmente le preocupa son los problemas más sutiles, pero igualmente peligrosos que podrían surgir debido a la inteligencia artificial. Altman lo dejó claro durante su intervención en la Cumbre Mundial de Gobiernos en Dubai: sin regulaciones adecuadas, la IA podría desviarse y causar grandes problemas en la sociedad de maneras que ni siquiera se puede imaginar.

La IA ya está provocando grandes cambios en la sociedad. Desde los chatbots hasta sistemas que mejoran la salud de los pacientes, está en todas partes. 

Pero, ¿qué pasa si esta tecnología se sale de control? Sam Altman señala que el mundo se podría enfrentar a problemas serios en áreas críticas como las elecciones, los medios de comunicación y las relaciones internacionales si no se establecen límites claros para todos.

Política, medios de comunicación y ejército: los tres jinetes del apocalipsis si la IA se va de las manos

Yendo al tema tan de moda ahora casi en el mundo, un ejemplo preocupante es el uso de la IA para manipular las elecciones. Con más de 50 países celebrando elecciones este año, la preocupación por la desinformación y la manipulación está en su punto máximo. Desde deepfakes hasta chatbots que se hacen pasar por candidatos, la IA podría convertirse en una herramienta peligrosa si no se controla.

Por supuesto, no hay que olvidarse de la desinformación en los medios. Con empresas demandando a compañías de IA por infracción de derechos de autor como The New York Times y cerrando acuerdos para el uso de su contenido en el entrenamiento de modelos de IA, el riesgo de que la información falsa se propague es real. 

Inteligencia artificial futuro

Esto no solo acaba con la confianza de la sociedad en las noticias, sino que también puede tener consecuencias graves para todo el mundo si se empiezan a difundir noticias falsas.

Por último, está el tema del uso militar de la IA. Aunque Altman ha dejado clara su preocupación por la falta de regulaciones en esta área, OpenAI ha actualizado sus políticas para permitir ciertos usos militares de la IA, es decir, su tecnología podría ser utilizada en aplicaciones militares. 

Sin embargo, regular precisamente este uso tan crítico es clave para garantizar la seguridad de todos y, queda claro, que sigue siendo un problema que necesita ser ya regulado.

A pesar de estos miedos y peligros potenciales que lo mantienen despierto por la noche, Altman dijo que cree que las cosas irán "tremendamente bien" y afirma que es lo que lo levanta cada mañana. "Creo que podemos imaginar fácilmente un mundo en un futuro no muy lejano, donde todos tengan una vida mejor que la que tienen hoy", añade.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.