Skip to main content

¿Será la Inteligencia Artificial un peligro en el futuro?

Imagen: Shutterstock

09/11/2016 - 09:08

La rebelión de las máquinas es uno de los temas favoritos de la ciencia ficción, especialmente de la de mediados del siglo pasado. No son pocas las novelas escritas con una guerra entre el hombre y los robots como argumento, algo que vuelve a la actualidad inmediata gracias a la Inteligencia Artificial. La pregunta es, ¿debemos frenar su desarrollo?

Por suerte para la humanidad, una mente privilegiada como la de Isaac Asimov ya se encargó de buscarle cinco pies al gato. En su Saga de los Robots -en la que se inspiró la película Yo, Robot- y posteriormente en La Fundación se aborda este tema. Si la inteligencia artificial se hace demasiado inteligente, podría ser un peligro.

Para evitar esto, en el universo de Asimov existían varias leyes de la robótica. Todos los androides están obligados a seguir estas leyes de forma obligatoria, ya que para ello han sido programados. Si uno de los robots pretende, por ejemplo, hacer daño a un humano, sus circuitos se fundirán de forma automática.

Es una perspectiva interesante que merece la pena valorar, aunque aún no hayamos llegado al punto en de tener problemas graves.

Hay que aclarar que para elaborar este artículo le hemos echado mucha imaginación. Evidentemente es difícil aplicar las leyes del universo de Asimov a un mundo que no tiene mucho que ver. Por ejemplo, las tres leyes de la robótica se podrían aplicar si la producción de robots y la programación de la IA estuviese centralizada de alguna forma. Si no, cualquier podría programarla para lo que se le ocurra.

Para hacerlo más fluido hemos identificado robots como Inteligencia Artificial. La diferencia entre la concepción clásica de robots y la moderna es la existencia de un hardware con aspecto humanoide, prácticamente descartada en nuestra época.

Desde hace más de un año, en el mundo real vivimos inmersos en la fiebre por la Inteligencia Artificial. Ya tenemos coches autónomos y la IA se hace cargo de operaciones cada vez más complejas. Nos encargamos de programar software cada vez más complejo, pero ¿hasta dónde es recomendable llegar?

Compra en Amazon los tres libros de La Saga de los Robots de Asimov

Si pensamos ir más allá, dotando casi a los robots -incluso a los virtuales- de inteligencia casi humana, debemos salvaguardar la integridad de la humanidad. Puede parecer ridículo, y la verdad es que dicho así, lo es, pero no hace menos interesante la temática.

El verdadero problema, al menos por el momento, no es lo que los robots serán capaz de hacer por su cuenta, sino lo que los humanos pueden llegar a hacer con la tecnología de la que disponemos, sirviéndose de robots para sus propósitos.

Yo también puedo programar, el libro con el que los niños aprenden a programar

Al igual que en sus novelas, la cuestión se reduce básicamente a una sola: ¿debe la Inteligencia Artificial primar el bienestar futuro de la humanidad por encima del bienestar físico inmediato de un humano? Para ilustrar la necesidad de un debate sobre los límites de la Inteligencia Artificial, hemos recopilado una serie de situaciones en las que serían necesarias unas Leyes de la Robótica como las que creó Isaac Asimov, si no directamente las mismas:

  • Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
  • Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño. Conocida como Ley 0.

Vehículos autónomos ante los accidentes

Accidente de Tesla

Ya hemos vivido la primera polémica alrededor de los vehículos autónomos. Un coche Tesla en modo autopiloto se estrelló causando la muerte de su ocupante, lo que llevó a todo el mundo a cuestionarse los peligros de ceder el volante a la Inteligencia Artificial, al menos por el momento.

Sin embargo, surge otra duda más a largo plazo: ¿qué ocurrirá cuando todos los vehículos sean pilotados por un software? ¿Es una amenaza la IA?

En este aspecto, hay una cosa que parece clara: la IA mejorará progresivamente hasta ser capaz de pilotar todo tipo de vehículos de forma segura. Al final se trata de crear software capaz de recopilar o recibir toda la información posible sobre el entorno, procesarla y actuar en consecuencia.

Por lo tanto, la seguridad ante un eventual choque llegará tarde o temprano, pero ¿y si la Inteligencia Artificial tiene que hacer una elección? Puede darse el caso en el que el software tenga que decidir entre estrellar un coche y matar a su ocupante o atropellar a un peatón, ¿qué ocurrirá entonces?

Digamos que, si la elección es entre dos humanos idénticos, las leyes de la robótica ordenan al software de autopilotaje a salvar la vida del humano que va en el Interior del vehículo. La cosa cambiaría si hay que elegir entre dos peatones y un único ocupante. Es el clásico dilema entre salvar a una persona y salvar a varias.

Arduino UNO rev3, la placa ideal para empezar a programar robótica

Cuantificar el potencial daño de un accidente puede parecer cosa fácil para un programa informático. En cualquier caso, el objetivo de estas Leyes de la Robótica reales sería dejar claro a la Inteligencia Artificial que la prioridad es salvar las vidas humanas, independientemente del coste material que pudiera acarrear esto.

El armamento en manos de la Inteligencia Artificial

Aviones F-35

Este supuesto es aún más lejano si cabe, pero podría llegar. Sólo hay que imaginar un futuro en el que la Inteligencia Artificial puede ser programada para que encuentre soluciones a problemas complejos por su cuenta.

Si el software es capaz de resolver situaciones de este tipo por sí mismo, ¿qué impide utilizarlo para desarrollar armas? Se podría programar a la IA para que encuentre la forma de matar a más gente de forma eficiente.

Si la humanidad debe o no dejar su armamento en manos de un software que -supuesta, y sólo supuestamente- puede llegar a escaparse de las manos, es un problema evidente. Y no sólo puede ser peligroso dejar el armamento disponible en sus manos virtuales, sino el desarrollo del mismo.

Google anuncia la era de la Inteligencia Artificial

Las leyes de la robótica no impedirían utilizar a los robots para este fin, siempre que no implique daño directo a un humano. Es uno de los dilemas a los que se enfrenta Asimov durante toda la Saga de la Fundación, cerrado finalmente con la incorporación de la Ley Cero.

Los robots como herramientas, no como armas

Robonaut de la NASA

Esta premisa es simple: hay que impedir que la Inteligencia Artificial, incluso popularizada a gran escala, debe ser usada sólo para mejorar nuestras condiciones de vida, pero no para hacerlo a costa de los demás.

Si tienes un robot que hace lo que le ordenes, algo debería impedir que le ordenes hacerle daño a otra persona, ya sea de forma directa o indirecta. Es la segunda Ley de Asimov, y quizás una de las más urgentes.

Es prácticamente imposible limitar el uso que los gobiernos hacen de la IA. Ahora mismo los drones son una forma eficiente y barata de hacer la guerra, así que es cuestión de tiempo que en lugar de ser pilotados por humanos lo haga un software especializado. De hecho hay pilotos expertos que ya han sido derrotados por ella en simuladores.

Esta cuestión es una de las que antes de solucionan en la bibliografía de Asimov. Simplemente es demasiado peligrosa la posibilidad de utilizar la Inteligencia Artificial como un arma.

La IA como salvaguarda ante sí misma

Robot inteligente

Aunque aún es pronto para valorar el potencial real de la Inteligencia Artificial, se pueden hacer suposiciones. Si se puede programar un software para ejecutar una acción determinada, también se puede programar para ser el peor enemigo de sí mismo.

En el anterior ejemplo hemos citado el caso en el que las máquinas se encargan de manejar armamento letal. Quizás la mejor forma de evitarlo no sea dejar esta decisión en manos humanas, sino en la de los mismos robots.

¿Qué tal si se programa a la IA para actuar de salvaguarda ante su propio poder? Podría llegar el día en el que se vuelva demasiado imprescindible, momento en el que vendría bien que ella misma se desactivase o limitase de alguna forma.

La Trilogía de La Fundación, en formato Kindle

Algunos rumores señalan que Google ha creado un interruptor para “apagar” su Inteligencia Artificial si llegado un momento se vuelve demasiado peligrosa. Esto plasmaría hasta dónde ha llegado ya el debate en torno a la posibilidad de enfrentarnos a un reto por parte de los robots.