Logo Computerhoy.com

Una normativa para regular la inteligencia artificial: cada vez más necesaria, pero no hay consenso

Regular la inteligencia artificial, una necesidad que muchos usuarios y empresas piden a gritos

La inteligencia artificial ha experimentado tal revolución que ya son muchos los que exigen una regulación por parte de las instituciones con el objetivo de evitar que estos sistemas acaben convirtiéndose en un potencial peligro.

Las nuevas tecnologías que se están presenciando en las últimas décadas tienen un claro protagonista: la inteligencia artificial, y parece que se está haciendo palpable, más que nunca, la necesidad de que esta sea regulada y se desarrolle desde ya bajo una normativa.

Muchos expertos y académicos, así como algunos líderes tecnológicos como Elon Musk, advierten que la IA está en camino de convertir a los robots en una nueva raza que subyugará a la humanidad, si no la destruirá. Algunos economistas señalan que también esta, a diferencia de las tecnologías anteriores, está destruyendo muchos más puestos de trabajo de los que crea, lo que provocará grandes cambios.

Parece haber un acuerdo generalizado de que el crecimiento de la IA se está acelerando y podría salirse de control. Aunque los desarrollos de esta sin duda merecen toda la atención, es necesario tener cuidado de que esta euforia no acabe volviéndose en contra.

Lo realmente curioso de este aspecto es que esta idea lleva años gestándose por parte de algunos países como EEUU o Europa, pero las grandes naciones no consiguen establecer un acuerdo común de cara a una regulación de la IA.

Regular la inteligencia artificial se convierte en una necesidad prioritaria

Resulta bastante relevante matizar el aspecto de que es probable que las restricciones al desarrollo de la IA supongan grandes problemas. Por ejemplo, ya existen sistemas que ayudan a detectar el cáncer, reducen el riesgo de colisiones de aviones y se implementan en el software de los coches que los hace mucho más seguros.

Pero también es cierto que sin las reglas adecuadas es más probable que los sistemas sean inexactos y sesgados, ya que las empresas no tendrán tanto interés para invertir en medidas de seguridad y garantizar la calidad e igual acceso de sus herramientas.

La historia detrás de ChatGPT: el gran logro de la inteligencia artificial conversacional

"Es necesario establecer normas para cualquier cosa que se vaya a introduciendo en la sociedad, y más cuando lo que se pretende es garantizar el uso de la misma de manera responsable. Sin embargo, las cosas llevan su tiempo de análisis y reflexión y establecer normativas precipitadas puede ir en detrimento de avances por temas legislativos", explica para Computer Hoy Encarnación Folgado, Technical Manager en IA de NTT DATA.

Un ejemplo conocido es el algoritmo de tarjetas de crédito de Apple, que ha sido acusado de discriminar a las mujeres, lo que provocó una investigación por parte del Departamento de Servicios Financieros de Nueva York.

 

Lo mismo ocurre con los algoritmos de anuncios en línea, que pueden dirigirse a los usuarios por raza, religión o género.

Un estudio publicado en el Journal of General Internal Medicine encontró que el software utilizado por los principales hospitales para priorizar a los receptores de trasplantes de riñón discriminaba a los pacientes negros. Y esto es solo la punta del iceberg.

"Los Deep Fakes son otro claro ejemplo. Ya se ha visto cómo se han usado imágenes en su mayoría de mujeres famosas para contenido pornográfico simulando sus caras. Por supuesto, este no es el único caso en el que se puede delinquir con la IA: falsificaciones de arte, ataques de ciberseguridad...", comenta para Computer Hoy Fernando Arroyo, Data Analyst y especializado en IA.

Pese a esta percepción de pánico y potencial peligro que se deja entrever, Encarnación Folgado asegura: "como todo, requiere adaptación, pero esto ha pasado a lo largo de la historia de la humanidad. ¿Acaso cuando apareció la máquina a vapor o la electricidad no supuso un cambio?. Hay que ver las bondades y no generar "pánico" en la sociedad. La IA no es un enemigo".

Ley de Inteligencia Artificial europea: un gran reto que necesita hacerse ya efectivo

Uno de los grandes pasos en este sentido y a nivel europeo se llama 'Ley de Inteligencia Artificial' y recientemente se pudo conocer cómo estos planes vuelven a ser echados para atrás debido a una falta de consenso por parte de algunos legisladores en relación a cómo calificar las diferentes herramientas y aplicaciones que surjan.

En el centro de la disputa está la necesidad de equilibrar derechos fundamentales como la privacidad de los datos y que todos los usuarios tengan accesos a sus beneficios con el objetivo de evitar que miles de empresas se lancen sin reparo a innovar en IA, dando lugar a herramientas o sistemas fallidos.

 

Europa quiere adoptar un enfoque más cauteloso hacia la IA que, por ejemplo, Estados Unidos y China, donde los legisladores no quieren imponer restricciones en este aspecto. Sin embargo, la Unión Europea espera que la regulación ayude a competir y ganarse la confianza de los usuarios, lo que prevén que impulse una adopción más amplia y segura de la inteligencia artificial.

"Creo que se debería sacar primero un "borrador" con ciertas normas que se sabe que pueden ser un problema para la sociedad pero habrá casos que no se esté del todo claro y limitarlo por considerar que puede ser un peligro es un atraso. Creo que iría introduciendo las leyes de manera progresiva según vayan apareciendo nuevos avances", finaliza la experta en inteligencia artificial entrevistada.

Se espera que la muy esperada 'Ley de Inteligencia Artificial' del bloque se someta a votación en el Parlamento Europeo a fines de marzo, momento en el que los países comenzarán a negociar los términos finales de la legislación. Quizá sea el primer gran paso para darle forma y establecer límites a una tecnología que podría llegar a escaparse de las manos de muchos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.