Logo Computerhoy.com

OpenAI, Microsoft, Google, Meta y Amazon se unen para anunciar el método definitivo para detectar deepfakes

OpenAI, Microsoft, Google, Meta y Amazon se unen para anunciar el método definitivo para detectar deepfakes

Poco a poco, comienzan a consensuarse medidas para poner puertas al campo. Llegan los métodos definitivos para detectar el contenido creado por IA.

Las compañías que generan inteligencia artificial más importantes del mundo, incluyendo OpenAI, Microsoft, Google, Meta, y Amazon, se han reunido con el presidente de los Estados Unidos Joe Biden para presentar el método definitivo para detectar los deepfakes, y el contenido generado por IA.

Estas compañías de inteligencia artificial han propuesto al presidente un método tan sencillo y clásico como efectivo: marcas de agua.

En breve, todo el contenido generado por ChatGPT, MidJourney, Stable Diffusion, Google Bard, el Chat de Bing, va a llevar una marca de agua, para que se pueda saber rápidamente que es un contenido creado con IA, y con qué inteligencia artificial se ha hecho.

Prioridad absoluta: controlar los deepfakes y las fake news

En la nota de prensa de la Casa Blanca, no se explica cómo se se va a aplicar esta marca de agua. No sabemos si será invisible y se usará un software para detectarla, o estará a la vista, en donde sea posible.

Además de este sistema, las compañías han acordado otras medidas para reducir los riesgos de la IA.

He probado el nuevo Bard de Google en español y tengo un sabor algo agridulce

Aceptan someterse a controles internos y externos de expertos de seguridad independientes, antes de lanzar una nueva IA, o una nueva versión de una inteligencia artificial generativa.

También se comprometen a compartir información sobre cómo funcionan sus IAs con gobiernos, expertos y académicos, para localizar posibles riesgos de seguridad.

Además estas empresas líderes en IA van a poner cortafuegos a temas delicados, como el desarrollo de armas biológicas, químicas o radiológicas usando IA, herramientas de ciberdelincuentes, control físico de máquinas y dispositivos, discriminación de razas y géneros, o la posibilidad de que una IA se replicle a sí misma.

Una frase de Google define este histórico acuerdo: "Una única compañía no puede garantizar por sí sola la seguridad de la IA".

Por esa razón OpenAI, Microsoft, Google, Meta, Amazon y otras compañías de inteligencia artificial han propuesto a Joe Biden una serie de medidas consesuadas, como la marca de agua, para impedir el uso impune y delictivo de los deepfakes y el contenido fraudulento generado por IA.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.