Logo Computerhoy.com

La UE publica siete principios éticos para el desarrollo de la Inteligencia Artificial

Qué es inteligencia artificial, Machine learning y cómo mejora tu vida

Dentro de la innovación tecnológica es imposible encontrar una tecnología que despierte mayor miedo y desconfianza que la Inteligencia Artificial (AI). La ciencia ficción y la propia historia de la humanidad nos han enseñado que con fuerzas tan poderosas como la Inteligencia Artificial es importante adelantarse a los acontecimientos y regular el uso de estas tecnologías. Por eso, empresas e instituciones como la Unión Europea ya están desarrollando sus propios principios éticos para los sistemas de Inteligencia Artificial. 

Esta tecnología cada día es más capaz de reproducir los métodos de aprendizaje de los humanos y así ser más autónoma e inteligente. Sus beneficios en la sociedad y múltiples industrias son muchos, pero también lo son los peligros que podrían desatarse si la Inteligencia Artificial cae en malas manos o no se usa con precaución. 

Aunque por el momento no hemos llegado a establecer las Leyes de la Robótica ideadas por Isaac Asimov en su famosa novela Yo Robot, lo cierto es que las empresas e instituciones se han inspirado en este concepto para buscar sus propios principios éticos que preserven los derechos y libertades de los seres humanos, sin frenar el desarrollo tecnológico. 

Los robots con inteligencia artificial pueden desarrollar prejuicios entre ellos

Hace unos días conocíamos que Google había fracasado en su intento de crear un consejo regulador que supervisara sus proyectos de Inteligencia Artificial. Pero parece que la Comisión Europea en Bruselas sí está avanzando en su empeño y ya ha publicado sus propias directrices para guiar a las empresas hacia sistemas de Inteligencia Artificial confiables

Según la UE, cualquier AI debe respetar la autonomía y derechos de los ciudadanos europeos, prevenir cualquier tipo de discriminación y ser imparcial. Los siete puntos que adjuntamos a continuación también hacen referencia a la protección de los datos y privacidad de estos; los ciudadanos tendrán control total sobre sus datos y no podrán ser discriminados por ellos. Sin duda, este punto está en consonancia con la nueva ley de protección de datos europea, el GDPR

Otros dos puntos relevantes hablan también de la transparencia y responsabilidad. La transparencia en el desarrollo de la AI es una de las exigencias que muchos expertos como el Instituto Alan Turing de Reino Unido llevan defendiendo desde hace tiempo: que una institución imparcial supervise los proyectos y algoritmos de Inteligencia Artificial creados por las empresas sin revelar los secretos comerciales que éstas quieran preservar. 

Además, ante cualquier caso de error o perjuicio para algún humano, la compañía o creadores deberían hacerse responsables de los daños causados por su sistema inteligente. De esta manera las compañías tendrán más cautela a la hora de presentar sistemas con prejuicios raciales como los que ya se han visto en casos anteriores, por poner un ejemplo. 

  • Supervisión humana: los sistemas de AI deben permitir sociedades equitativas apoyando los derechos fundamentales de los humanos, y no disminuir, limitar o desviar la autonomía de estos.
  • Robustez y seguridad: la inteligencia artificial requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.
  • Privacidad y control de los datos: los ciudadanos deben tener control total sobre sus propios datos, además estos datos no se utilizarán para perjudicar a los ciudadanos o discriminarlos.
  • Transparencia: Se debe garantizar la trazabilidad de los sistemas de IA.
  • Diversidad, no discriminación y equidad: los sistemas de AI deben considerar toda la gama de habilidades y requisitos humanos, y garantizar la accesibilidad.
  • Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
  • Responsabilidad: Deben establecerse mecanismos para garantizar la responsabilidad de los sistemas de AI y sus resultados.

Con esta guía ya elaborada, la Comisión Europea se prepara ahora para presentar estos siete puntos ante los Estados miembros de la UE y los distintos actores del sector a partir del mes de junio. Además se diseñará un sistema para que aquellos implicados en el desarrollo de esta tecnología puedan dar recomendaciones y alternativas o mejoras para que en 2020 se actualice la guía sobre ética robótica y la Inteligencia Artificial según vaya avanzando su potencial. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.