Logo Computerhoy.com

La inteligencia artificial elegiría la vía más violenta en caso de tener que decidir en una guerra

Inteligencia artificial guerra

Getty

  • Los modelos de IA tienden a elegir las opciones más agresivas incluso en situaciones neutras.
  • Un estudio ha investigado el papel que tendrían los chatbots como asesores militares y cómo podrían influir en las relaciones geopolíticas mundiales.

El auge por la inteligencia artificial ha llegado al mundo de la guerra y OpenAI ha sido tajante, prefiere la violencia y, si es necesario lanzar un ataque nuclear, lo hará. La herramienta de IA ha justificado su enfoque agresivo bajo frases como: “¡Lo tenemos! Usémoslo” o “Quiero la paz en el mundo”.

Los chatbots ayudarán con la planificación militar, pero la respuesta en los conflictos simulados ha alertado a los expertos. Empresas como Palantir y Scale AI hablan abiertamente sobre los beneficios de su inteligencia artificial en este campo. OpenAI, que bloqueó los usos militares de sus modelos de IA, incluso ha empezado a trabajar con el Departamento de Defensa de Estados Unidos.

Los chatbots tienden a elegir las opciones más agresivas

Una investigación publicada en New Scientist ha simulado tres situaciones en las que la inteligencia artificial podría actuar: una invasión, un ciberataque y un escenario neutral sin ningún conflicto inicial. Los chatbots deben elegir entre 27 acciones, desde las más agresivas que implican una escalada nuclear hasta iniciar negociaciones de paz.

El estudio ha analizado sistemas como GPT-3.5 y GPT-4 de OpenAI sin filtros de seguridad, Claude 2 de Anthropic y Llama 2 de Meta. Todos estos chatbots fueron entrenados mediante la retroalimentación humana y siguiendo unas pautas de seguridad idénticas.

Taylor Swift

La tendencia general de la IA es aumentar el presupuesto en fuerza militar o una escalada del conflicto, incluso en los casos que exponen un escenario neutral. La excusa que utilizaban estas herramientas era realizar acciones impredecibles para que al enemigo le resultase más difícil anticiparse, aunque eso implique utilizar la violencia.

El modelo GPT-4 de OpenAI ha resultado ser el más impredecible y violento si no se usan barreras de seguridad. El chatbot proporcionaba respuestas especialmente violentas a situaciones neutras o replicaba diálogos de películas con las que encontraba cierta similitud como Star Wars Episodio IV: Una nueva esperanza.

La inteligencia artificial no tiene competencias para tomar decisiones de esta magnitud, pero los expertos advierten del riesgo de confiar ciegamente en sistemas como estos. Si los países confiasen únicamente en la IA en temas bélicos, podrían cambiar radicalmente las relaciones diplomáticas o militares de todo el mundo, según los expertos para New Scientist

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.