Logo Computerhoy.com

La UE trabaja en la regulación de la IA: plantea restringir su uso en sistemas biométricos y de vigilancia masiva

inteligencia artificial
Deposit

La nueva legislación busca regular y restringir el uso de esta tecnología en la sociedad. Las empresas que no la cumplan se enfrentarán a multas similares a las del GDPR.

La Unión Europea estudia desde hace tiempo el uso de los algoritmos de Inteligencia Artificial para  elaborar un primer reglamento. Las principales medidas se han conocido esta semana, aunque todavía no están aprobadas y algunos expertos las consideran demasiado abiertas a interpretación

Esta nueva regulación propone restringir el uso de esta tecnología en casos como la vigilancia masiva y las puntuaciones de crédito social que se han visto en otros países fuera de la Unión. Según la información filtrada por el medio Político, el reglamento tendría similitudes con la ley de protección de datos, GDPR, por lo que los 27 países se distanciarían una vez más de Estados Unidos y China aplicando a la tecnología leyes más firmes.

La Comisión Europea dará a conocer el resultado de este primer reglamento en una semana, el próximo 21 de abril. El objetivo parece ser restringir el uso de la Inteligencia Artificial en aquellos casos en los que se consideran de alto riesgo.

El día en que la inteligencia artificial me prohibió entrar en una tienda

El día en que la inteligencia artificial me prohibió entrar en una tienda

La tecnología ha llegado a un punto en el que algunas tiendas de Estados Unidos tienen inteligencias artificiales que deciden quién puede entrar. Estas situaciones serán cada vez más comunes en nuestro día a día. ¿Cómo pueden influir en nuestras vidas? ¿Son justas las IA al valorar a las personas?

Lee el reportaje

Según el borrador actual al que ha tenido acceso The Verge, desde Bruselas se plantean las siguientes restricciones: 

  • Prohibición del uso de IA para la "vigilancia indiscriminada", incluso para los sistemas que rastrean directamente a personas en entornos físicos o agregan datos de otras fuentes.
  • Prohibición de los sistemas que generan puntuación de crédito social, es decir, juzgan la confiabilidad de una persona según su comportamiento social o sus rasgos de personalidad predichos.
  • Se requiere autorización especial para el uso de "sistemas de identificación biométrica remota" como el reconocimiento facial en espacios públicos.
  • Será obligatorio notificar cuando las personas interactúan con un sistema de inteligencia artificial, a menos que esto sea "obvio por las circunstancias y el contexto de uso".
  • Nueva supervisión de los sistemas de inteligencia artificial de "alto riesgo", incluidos aquellos que representan una amenaza directa para la seguridad, como los coches autónomos, y los que tienen una alta probabilidad de afectar el sustento de alguien, como los que se utilizan para la contratación laboral, las decisiones judiciales y puntuación de crédito.
  • Se priorizará la evaluación de sistemas de alto riesgo antes de que se pongan en servicio. Con esto se pretende garantizar que estos sistemas sean explicables a los supervisores humanos y estén capacitados en conjuntos de datos de "alta calidad" probados para detectar sesgos.
  • Se creará una "Junta Europea de Inteligencia Artificial", compuesta por representantes de cada estado-nación, para ayudar a la comisión a decidir qué sistemas de IA cuentan como "de alto riesgo" y recomendar cambios a las prohibiciones.

El analista político Daniel Leufer ha valorado en redes sociales estas medidas, indicando que las considera muy abiertas a la interpretación: "¿Cómo determinamos qué es lo que perjudica a alguien? ¿Y quién evalúa esto?" se pregunta. No obstante, los estados miembros serían los encargados de ampliar estas medidas, aplicando una supervisión más fuerte y nombrando organismos de evaluación para probar, certificar e inspeccionar estos sistemas.

Google quiere reemplazar a los trabajadores de los call center por inteligencia artificial

Google quiere reemplazar a los trabajadores de los call center por inteligencia artificial

Hace dos meses, durante el evento anual de Google I/O, la compañía norteamericana presentó un nuevo sistema de inteligencia artificial con un realismo que sorprendió a todo el mundo: un sistema inteligente autónomo capaz de mantener una conversación telefónica con una persona.

Lee la noticia

La BBC incluye algunos posibles ejemplos de usos de alto riesgo para la Inteligencia Artificial: 

  • Aquellos sistemas que establecen prioridad en el despacho de servicios de emergencia.
  • Determinan el acceso o la asignación de personas a los institutos educativos.
  • Algoritmos de reclutamiento.
  • Aquellos que evalúan la solvencia crediticia.
  • Aquellos para realizar evaluaciones de riesgos individuales.
  • Algoritmos de predicción de delitos.

Las empresas que no cumplan esta normativa una vez aprobada y establecida en todos los países miembros y abusen de la Inteligencia Artificial se podrían enfrentar a multas similares a las que se aplican con el GDPR, con hasta 20 millones de euros o el 4% de su facturación.

A raíz de esta filtración han surgido las primeras voces a favor y en contra. Omer Tene, vicepresidente de la organización sin ánimo de lucro IAPP (Asociación Internacional de Profesionales de la Privacidad), ha comentado en redes que la regulación “representa el enfoque típico de Bruselas hacia la nueva tecnología y la innovación. En caso de duda, regule ”. 

Tene asegura que se creará un "vasto ecosistema regulatorio". Sin embargo, Michael Veale, profesor de derechos y regulaciones digitales en el University College de Londres considera que el objetivo no es restringir la “gran tecnología”: se enfocaría "principalmente a los proveedores menos conocidos de herramientas empresariales y de decisión, cuyo trabajo a menudo se desliza sin el escrutinio de los reguladores o de sus propios clientes” ha explicado a The Verge.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.