Logo Computerhoy.com

Estos tres países proponen cambios en la Ley de IA de la Unión Europea y son considerados como "una declaración de guerra"

La nueva y estricta ley de inteligencia artificial europea sigue sin ver la luz tras varios años
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

  • Francia, Alemania e Italia proponen grandes cambios en la ley de inteligencia artificial de la Unión Europea, que actualmente está siendo consideradas como "una declaración de guerra".
  • "Necesitamos regular las aplicaciones y no la tecnología si queremos jugar en la liga de IA más importante del mundo", dijo a Reuters el ministro digital de Alemania, Volker Wissing.
  • Google y Dropbox quedan KO con esta oferta: un disco duro de 12TB que será tu nube personal.

La Ley de Inteligencia Artificial, una legislación totalmente nueva y necesaria destinada a establecer normas sobre el desarrollo y uso de sistemas de IA, está en la fase final de discusión entre la Comisión, el Consejo y el Parlamento de la UE. 

Sin embargo, un reciente documento no oficial, al que tuvo acceso Euractiv, pone sobre la mesa bastantes tensiones entre los países miembros, especialmente en el caso de tres grandes figuras de la UE: Francia, Alemania e Italia.

La propuesta inicial de regulación contemplaba un enfoque progresivo, estableciendo códigos de conducta y regulaciones para los modelos más básicos de IA. Sin embargo, la llegada de chatbots tan famosos como ChatGPT, basado en GPT-4, de OpenAI, ha hecho que las cosas se tambaleen y se comience a mirar esta ley de nuevo.

Estos tres países sugieren una revisión de la ley sobre todo los puntos que afectan a estas tecnologías más avanzadas, argumentando que este tipo de regulación podría afectar negativamente a la innovación y la seguridad al mismo tiempo.

Consideran que retrasará la innovación y, en consecuencia, la seguridad

En un documento presentado, Francia, Alemania e Italia se oponen a la imposición de normas estrictas a los modelos fundamentales y proponen un enfoque basado en la autorregulación mediante códigos de conducta

El documento destaca que los riesgos asociados con la IA no residen tanto en la tecnología en sí misma como en su aplicación. Argumenta que las normas europeas deberían respaldar un enfoque que se centre en este nuevo marco legislativo para que no se pierda la innovación y la seguridad.

Nacimiento inteligencia artficial

"Necesitamos regular las aplicaciones y no la tecnología si queremos jugar en la liga de IA más importante del mundo", dijo a Reuters el ministro digital de Alemania, Volker Wissing.

La propuesta de estos países sugiere que, en lugar de imponer reglas desde un principio, se establezcan códigos de conducta. Estos se basarían en principios previamente definidos en el G7 a través del proceso de Hiroshima, que buscan una autorregulación obligatoria. 

"Cuando se trata de modelos básicos, nos oponemos a instaurar normas no probadas y sugerimos que se establezcan mientras tanto una autorregulación obligatoria a través de códigos de conducta", se puede leer.

La autorregulación implicaría que los desarrolladores definan "tarjetas modelo", que serían documentos técnicos que resumen información relevante sobre cómo funcionan estos modelos. Estas incluirían detalles como la cantidad de parámetros del modelo, usos previstos, posibles sesgos, resultados de estudios sobre sesgos y equipos de evaluación de seguridad. 

Además, para garantizar el cumplimiento, se propone la creación de un organismo de gobernanza de la IA que desarrolle directrices y supervise la aplicación de estas "tarjetas modelo". Este organismo sería responsable de verificar la implementación de las tarjetas modelo y proporcionaría un canal para informar públicamente sobre cualquier violación del código de conducta.

verticalImage1690551002060

Según el documento no oficial, "cualquier sospecha de violación en aras de la transparencia debería ser hecha pública por la autoridad".

Sin embargo, la propuesta va un paso más allá al sugerir que, inicialmente, no se apliquen sanciones. Según estos tres países, esto solo debería establecerse después de violaciones sistemáticas de los códigos de conducta y tras un análisis y evaluación adecuados de las infracciones identificadas.

Como era de esperar, la resistencia de estos países a aceptar el enfoque previsto y a punto de ser aceptado, ha creado tensiones en las negociaciones. Algunos incluso han llegado a describir la situación como "una declaración de guerra".

La resolución de estos problemas no cabe duda de que serán muy importantes no solo para la regulación de la IA en la UE, sino también para determinar cómo se equilibra la innovación y la seguridad en el desarrollo y uso de estas tecnologías a nivel mundial, ya que seguramente sentará un precedente para que el resto de países den el paso.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.