Skip to main content

Bruselas desarrollará una serie de normas éticas para la inteligencia artificial

DeepMind

04/10/2018 - 13:23

La Comisión Europea comienza mañana el camino hacia una regulación de los derechos y deberes éticos de los robots. El debate sobre la necesidad de dotar a las máquinas inteligentes de unas normas morales lleva mucho tiempo circulando en la industria tecnológica, muchas compañías han elaborado ya sus propias normas, pero ahora son las instituciones públicas europeas las que se ponen manos a la obra con esta delicada tarea. 

Un grupo de 52 expertos realizará mañana la primera reunión de muchas para analizar con minuciosidad las miles de posibilidades y situaciones en las que puede resultar peligrosa esta tecnología y elaborar unos límites claros, pero sin coartar la libertad de innovación que tantos beneficios auguran para el futuro social e industria; por eso decimos que es una delicada tarea. 

La conducción autónoma es la rama de la inteligencia artificial que más a copado titulares últimamente, debido al desarrollo por parte de grandes compañías de coches autónomas, pero sobre todo por los fallos y accidentes provocados por esta tecnología. Hace unos meses nos planteabamos la pregunta de "Si un coche autónomo mata a alguien, ¿quién va a la cárcel?". Pero no solo los coches pueden suponer ese riesgo, los mismo pasa con los sistemas inteligentes que están empezando a desarrollar las aerolíneas para ayudar a los pilotos durante los vuelos y que pronto podría sustituirles. 

Los robots podrán anticiparse a todos nuestros movimientos

Además de el transporte automático, Bruselas deberá incluir otra innumerable variedad de sistemas inteligentes que ahora mismo se usan desde el ámbito más industrial hasta el más doméstico. Máquinas autónomas en almacenes de fábricas, soldados-robots que ya han participado en misiones de guerra, los asistentes virtuales de Google o Apple que tantos usuarios están usando en sus casas y móviles, y un largo etc. 

Somos conscientes de muchos de estos dispositivos, pero tal vez no tengamos tan claro que estamos tratando con otros muchos programas basados en el aprendizaje automáticos como los usados por las entidades financieras para determinar que clientes pueden acceder a un crédito y cuáles no. 

Ante este último caso, por ejemplo, ya se ha establecido una normativa dentro de la nueva ley de protección de datos europea, el GDPR, que determina que toda persona que sea rechazada en un proceso de selección realizado por una máquina, tiene derecho a conocer los criterios que se han empleado para tomar esa decisión. 

Esto se ha denominado derecho de explicación y protege a las personas en caso de que se le niegue la entrada a un país o un crédito entro otros muchos casos de forma injusta, y al mismo tiempo detectar sesgos racistas o sexistas en los algoritmos

La principal pregunta que se plantea ahora es, ¿en quién debe recaer la responsabilidad y el poder de decidir qué es moral y qué no? No todo el mundo tiene el mismo concepto de ético o moral, y mucho menos la diversidad de políticos que pueblan nuestras instituciones actualmente. 

En Estados Unidos las empresas tecnológicas también han solicitado al Gobierno una regulación clara sobre este tema, pero teniendo en cuenta el carácter internacional que está alcanzando la tecnología, son muchas las voces expertas que apelan a la necesidad de que estas leyes y normas se redacten a nivel global para que realmente tengan utilidad y las empresas no deban estar adaptándose a cientos de normativas distintas.