Logo Computerhoy.com

Una exempleada del Proyecto Maven de Google advierte de los peligros que suponen los drones autónomos

DGT desarrolla enjambres de drones

Es uno de los proyectos más polémicos en los que ha estado inmerso Google. El gigante tecnológico lleva tiempo sufriendo las críticas de sus propios empleados por el que se conoce como Proyecto Maven, el cual se basa en un contrato del Departamento de Defensa de los Estados Unidos. 

El ejército estadounidense había contratado a Google para que éste mejorase los sistemas de inteligencia artificial y la autonomía de sus drones. Ante las protestas, Google decidió paralizar el proyecto, cuya resolución podría suponer serías consecuencias para la seguridad de los humanos según ha explicado una antigua empleada de Google. 

Laura Nolan ha detallado a The Guardian las consecuencias que podrían tener en el futuro proyectos como el de Google. “Podría haber accidentes a gran escala porque estas cosas (drones autónomos) comenzarán a comportarse de manera inesperada".

¿Cómo serán las guerras en el futuro? Así está cambiando el campo de batalla con la tecnología

¿Cómo serán las guerras en el futuro? Así está cambiando el campo de batalla con la tecnología

Las guerras siempre han estado influenciadas por el desarrollo tecnológico del momento. Ahora que la innovación tecnológica ha invadido casi cualquier aspecto de nuestras vidas, ¿cómo afectará a los conflictos presentes y futuros que se produzcan entre países?

Lee la noticia

Nolan llevaba trabajando en Google cuatro años cuando fue "reclutada" por el Departamento de Defensa estadounidense para trabajar en el Proyecto Maven que desarrollaba sistemas de inteligencia artificial para hacer más inteligentes los drones y que estos fueran capaces de distinguir al enemigo de otras personas u objetos. Debido a las protestas de los empleados y renuncias como la de Nolan, Google se vio obligado a suspender ese contrato.

"Aunque no participé directamente en mejorar el reconocimiento del sistema, me di cuenta de que todavía era parte de la cadena de asesinatos; que en última instancia, esto conduciría a que más personas fueran atacadas y asesinadas por el ejército estadounidense en lugares como Afganistán" ha explicado al medio británico. 

Esta exempleada de Google asegura que es imprescindible conservar la mano del ser humano y mantener su control frente a sistemas deshumanizados, por muy precisos que sean: "cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos ".

Google establecerá principios éticos a la IA con fines militares

Google establecerá principios éticos a la IA con fines militares

Las protestas de los empleados cuando descubrieron el verdadero objetivo de su trabajo, que hasta ese momento se había mantenido en secreto, obligaron a la compañía a replantearse su colaboración con el Departamento de Defensa de los Estados Unidos.

Lee la noticia

Señales de radar inesperadas, un clima inusual o simplemente encontrar personas que portan armas por motivos distintos a la guerra como la caza, podrían alterar el funcionamiento de las futuras armas autónomas y provocar masacres según la opinión de esta ingeniera. 

Es más, Nolan advierte que únicamente se puede comprobar la efectividad de estas innovaciones en el mismo campo de batalla, utilizando a las personas de ese territorio como conejillos de indias. 

Esta ingeniera se centra ahora en conseguir que los principales países se comprometan a prohibir la fabricación de este nuevo tipo de armas. Aunque ningún país ha admitido estar fabricando armas autónomas, la gran mayoría dedica parte de sus recursos a impulsar el desarrollo de la inteligencia artificial con fines militares. Ejemplo de ello son países como Israel que presume de la inteligencia de sus drones o Estados Unidos que ha presentado un buque de guerra que no necesita tripulación para pasar meses en el mar. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.