Skip to main content

El consejo de Google para controlar la ética de la IA ha durado sólo una semana

Google cartel

05/04/2019 - 10:11

Las grandes empresas, al igual que los gobiernos y la sociedad en general, empiezan a ver necesario regular los sistemas de Inteligencia Artificial con normas éticas, sobre todo el uso que se puede hacer de esta tecnología. No obstante, fijar estas normas no es tarea fácil, y buena muestra de ello es que Google ha tenido que disolver su consejo ético al que había dado vida para regular la IA creada por el gigante de internet tan sólo una semana después de que comenzara su labor.

Hace una semana os contábamos cómo los problemas que ha tenido Google en el desarrollo de su Inteligencia Artificial le habían llevado a establecer un consejo formado por expertos internos y externos que supervisaran el cumplimiento de los principios establecidos por Sundar Pichai, CEO de Google, previamente, pero parece que no acertaron mucho con la elección de los miembros de este consejo.

Según Vox, la principal causa de la disolución ha sido Kay Coles James, presidenta de Heritage Foundation. No ha tardado mucho en saltar la polémica por la elección de esta empresaria que ha manifestado abiertamente su apoyo a los movimientos contra los derechos de la comunidad LGTBIQ, y también existen declaraciones suyas en las que ha negado la necesidad de luchar contra el cambio climático.

Westworld no está tan lejos: ¿podrían los robots vengarse de nosotros en el futuro?

En el consejo asesor, denominado Consejo Consultivo Externo de Tecnología Avanzada (ATEAC), también se encontraban varios expertos en Inteligencia Artificial, filosofía, psicología y robótica, junto a varias figuras con antecedentes políticos similares a los de Kay Coles James y que habían trabajado en anteriores administraciones de la presidencia de Estados Unidos. 

Tras este fracaso, la compañía cambia de estrategia, aunque mantiene la necesidad de supervisar y consultar expertos para asegurarse que los proyectos de inteligencia Artificial no sobrepasen las normas éticas sociales: "Continuaremos siendo responsables en nuestro trabajo en los temas importantes que AI plantea, y encontraremos diferentes maneras de obtener opiniones externas sobre estos temas", ha explicado un portavoz de Google a The Verge.

Esta misma publicación asegura que Google no ha dado ninguna explicación sobre cuál fue el proceso de selección de cada miembro del consejo, pero se sospecha que algunos nombramientos se habrían usado para apaciguar a los legisladores republicanos y ganarse su favor en cuestiones de legalización de la investigación y aplicación de la tecnología desarrollada por Google. 

La presión social que pedía la destitución de James del consejo consiguió su punto más álgido durante el fin de semana, cuando otro de los miembros, el profesor de Carnegie Mellon, Alessandro Acquisti renunció a su puesto y escribió en Twitter: "Si bien estoy dedicado a la investigación que trata temas clave éticos de equidad, los derechos, y la inclusión en AI, no creo que este sea el foro adecuado para participar en este importante trabajo ”.

Los Principios de la IA

Robot trabajador

Los propios principios establecidos por Google para desarrollar sistemas inteligentes de forma ética chocan en parte con la ideología de James, ya que en sus segundo punto se comprometen a "evitar impactos injustos en las personas, en particular aquellos relacionados con características sensibles como la raza, el origen ético, el género, la nacionalidad, los ingresos, la orientación sexual, la capacidad y las creencias políticas o religiosas".

Tanto Google como otras empresas tecnologías se han encontrado con fuertes críticas por sus contratos con el Pentágono para usar su tecnología en campos tan polémicos como la inmigración en las fronteras de Estados Unidos. Google ya ha tenido que cancelar algún contrato con las fuerzas armadas y se ha comprometido a no crear armamento inteligente pero no renuncia a seguir haciendo negocios con las autoridades militares. 

Amazon también ha desarrollado sus propios principios éticos. Estas acciones sirven principalmente para mantener la confianza de los consumidores en estas empresas que además de vendernos sus productos, desarrollan tecnologías  que pueden ser muy útiles para la sociedad a menos que caigan en malas manos, la historia de siempre. 

Ante este panorama, no sólo las empresas  se han planteado unas posibles Leyes de la Robótica, la Unión Europea también trabaja en unos posibles derechos y deberes éticos de las máquinas que no coarte la liberta de innovación, pero prevenga de posibles ataques a las libertades de los seres humanos. 

Tags:

#Destacado

Ver ahora: