Logo Computerhoy.com

La propia directora de tecnología de OpenAI admite que ChatGPT tiene que ser regulado por las autoridades

¿Aprueba ChatGPT el test de Turing?

Mira Murati, directora de tecnología de OpenAI, reconoce la importancia de una regulación adecuada en la IA. Sus declaraciones llegan mientras el Reglamento de la Inteligencia Artificial de la UE sigue su curso legislativo, cerca de aprobarse.

Mira Murati, directora de tecnología de OpenAI, ha reconocido recientemente que ChatGPT, la plataforma de inteligencia artificial que dirige y permite a los usuarios mantener conversaciones con un modelo de lenguaje automatizado, necesita regulación

Según la experta, la falta de supervisión y control sobre las herramientas de procesamiento de inteligencia artificial puede tener graves consecuencias, como la diseminación de noticias falsas y la propagación de discursos de odio en línea.

A OpenAI le cuesta una millonada al día hacer funcionar ChatGPT: así es como quiere reducir el gasto

En la entrevista reciente con AP, Murati destacó la importancia de la regulación en el desarrollo de tecnologías de procesamiento del lenguaje, afirmando que es necesario establecer un marco de referencia ético y legal para garantizar que estas herramientas se utilicen de manera responsable. 

La experta señaló, además, que la regulación debe abordar una serie de cuestiones clave, incluyendo la transparencia en la toma de decisiones algorítmicas, la privacidad y la seguridad de los datos, y la responsabilidad por los efectos sociales de las tecnologías de procesamiento del lenguaje de los chatbots.

La U.E. trabaja en un Reglamento de la Inteligencia Artificial que obligue a la transparencia 

Un marco de referencia con mucha literatura académica desde el año 2021 en la Unión Europea, dónde ya se trabaja en el Reglamento de la Inteligencia Artificial. El Parlamento Europeo está terminando de concretar una propuesta, que tendrá que negociarse después con el otro colegislador comunitario, el Consejo de la Unión Europea, y podría tener luz verde en unos meses.

La primera y máxima barrera regulatoria que debate la UE, tendría como punto clave la transparencia, a la que alude Murati. La norma dictará que los responsables de modelos de IA en Europa también tendrán que ofrecer garantías de que durante los 10 años siguientes al lanzamiento del modelo esa documentación permanecerá accesible, y garantizar transparencia con sus algoritmos.

En cuanto a la inteligencia artificial, la confianza es una necesidad, no algo agradable de tener”, declaró al respecto Margrethe Vestager, Vicepresidenta Ejecutiva para una Europa adaptada a la era digital.

La nueva ley de la Unión Europea cambiará drásticamente cómo usas Internet

Un sistema de clasificación, cuya base fundamental, permitirá evaluar el nivel de riesgo que una tecnología de IA podría representar para la salud, seguridad y derechos fundamentales de una persona. El marco establece cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo.

La propuesta de la Ley de Inteligencia Artificial contempla sanciones rigurosas en caso de incumplimiento. En el caso de las empresas, las multas podrían llegar hasta los 30 millones de euros o el 6% de sus ingresos globales. Asimismo, la presentación de documentación engañosa o falsa a los reguladores también puede dar lugar a multas

Involucrar al mundo académico, político e industrial en la regulación de la inteligencia artificial

Mira Murati, además, ha querido subrayar la necesidad de involucrar a múltiples partes interesadas en el desarrollo de regulaciones efectivas para ChatGPT y otras herramientas similares. Según la experta, se necesitan esfuerzos de colaboración entre la Academia, la industria y el gobierno para abordar los desafíos que plantean estas tecnologías emergentes.

Además, instó a los investigadores y desarrolladores a tener en cuenta las preocupaciones éticas y sociales desde el principio del proceso de desarrollo, y a trabajar en estrecha colaboración con expertos en ética y política para asegurar que las tecnologías sean diseñadas y utilizadas de manera responsable.

Regular la inteligencia artificial, una necesidad que muchos usuarios y empresas piden a gritos

La preocupación de Murati por la regulación de las tecnologías de procesamiento del lenguaje refleja una creciente conciencia de los desafíos éticos y sociales que plantean estas herramientas emergentes. 

A medida que la inteligencia artificial se vuelve cada vez más avanzada, la necesidad de una regulación efectiva se hace cada vez más apremiante. Si bien la inteligencia artificial tiene el potencial de mejorar la vida humana en muchos aspectos, también puede tener consecuencias negativas, como la invasión de la privacidad y la creación de sistemas de vigilancia masiva.

¿Quién es Mira Murati?

Mira Murati es una ingeniera reconocida en la industria de la inteligencia artificial (IA). Actualmente, se desempeña como directora de tecnología de OpenAI, organización líder en investigación y desarrollo de IA. En este rol, Murati lidera los esfuerzos de investigación en inteligencia artificial y es responsable de la estrategia de tecnología y la dirección del equipo de ingeniería.

Antes de unirse a OpenAI, Murati trabajó en varias empresas de tecnología, incluyendo Google, donde desempeñó un papel clave en el desarrollo de Google Maps y Google Photos. También fue cofundadora y directora de tecnología de una startup de inteligencia artificial llamada Xnor.ai, que fue adquirida por Apple en 2019.

Además de su trabajo en tecnología, Murati también es una defensora de la diversidad e inclusión en la industria de la tecnología y ha hablado sobre la importancia de aumentar la representación de mujeres y personas de color en la IA y otras áreas de tecnología.

Su trabajo en OpenAI y otras empresas ha ayudado a impulsar el desarrollo de la IA y ha sido reconocida como una de las mujeres más influyentes en Silicon Valley.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.