Logo Computerhoy.com

Microsoft tapa el agujero que permitía usar su IA generativa para "pornografiar" a Taylor Swift

La cantante Taylor Swift.

Reuters

  • Los deepfakes pornográficos de Taylor Swift que inundaron X hace unos días, fueron creados con la IA gratuita Microsoft Designer.
  • Pese a que Microsoft no ha reconocido que la culpa ha sido de un agujero de Designer, usuarios confirman que dichos fallos han sido corregidos.
  • "Encontraremos otra forma de usar la IA para seguir haciéndolo", aseguran en el canal de Telegram de donde salieron los deepfakes.

Poco a poco, se va aclarando el escándalo de los deepfakes pornográficos de Taylor Swift. Parece que, al menos de momento, ya no se podrán crear más, ya que Microsoft ha corregido el bug de su inteligencia artificial generativa Microsoft Designer, que permitía crear contenido.

El lío comenzó hace una semana, cuando la red social de Elon Musk, X, comenzó a llenarse de "deepfakes" pornográficos de la cantante Taylor Swift. Un deepfake es una imagen falsa de una persona, en donde se usa la inteligencia artificial para mezclar partes del cuerpo de diferentes fuentes, sin que se note.

X intentó, sin demasiado éxito y durante días, eliminar estos deepfakes hechos sin consentimiento. Finalmente, derrotada, decidió cortar todas las búsquedas de Taylor Swift en la red social.

El fallo de Microsoft Designer

Una investigación de 404 Media descubrió que estos deepfakes pornográficos habían sido creados por usuarios de 4Chan y de un canal de Telegram. Se dedican a crear este tipo de contenido dañino para las víctimas, que se ven convertidas en actrices porno sin su consentimiento.

Lo más grave es que los deepfakes había sido creados por herramientas gratuitas como Designer, la IA generativa de Microsoft.

verticalImage1706394579030

Este tipo de inteligencia artificial tiene cortafuegos para evitar crear contenido pornográfico o que atente contra la privacidad o dignidad de las personas. El problema es que la IA será muy lista, pero aún es un poco "inocente", y puede ser engañada para que cree lo que tiene prohibido crear.

Según cuenta 404 Media, en Designer no se puede crear una foto o un vídeo de un personaje desnudo directamente. Pero los autores de los deepfakes de Taylor Swift consiguieron engañar a la IA cambiando una o dos letras del nombre de la cantante, y haciendo peticiones indirectas sin usar palabras prohibidas, como "desnudo".

El propio CEO de Microsoft, Satya Nadella, ha dicho en una entrevista en la CNN que "es nuestra responsabilidad añadir más cortafuegos a las herramientas de IA para evitar que elaboren contenidos perjudiciales".

Microsoft se sube a la tendencia de creación de imágenes IA con Designer

Y parece que se han tomado esta responsabilidad en serio, porque ya no se pueden crear deepfakes pornográficos en Designer, usando los anteriores trucos. Aunque, por supuesto, eso no va a detener a sus creadores.

"Estoy seguro de que encontraremos otros lugares para hacer IA si esto se cae", dijo un usuario en el canal de Telegram.

Los deepfakes de personajes famosos se han popularizado gracias a la inteligencia artificial generativa. Y aunque las compañías intentan frenarlos, como dice este usuario de Telegram, posiblemente es como poner puertas al campo. Encontrarán otra forma de hacerlo, pero los deepfakes seguirán apareciendo. Especialmente ahora que surgen IAs hasta de debajo de las piedras...

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.