Logo Computerhoy.com

Un ingeniero de Microsoft pide al regulador que bloquee Copilot Designer, porque crea imágenes perturbadoras

Microsoft va a por ChatGPT, y tira la toalla con Bing: lanza la app para Android de Copilot
  • Shane Jones, un ingeniero que lleva 6 años trabajando en Microsoft, ha decidido hacer pública su denuncia contra Copilot Designer, por su supuesta peligrosidad.
  • Asegura que lleva tres meses avisando a Microsoft, pero no le han hecho caso.

Desde que se estrenaron las primeras IAs, numerosos empleados se han "revelado" por los frecuentes conflictos éticos y morales que plantean. Shane Jones, un ingeniero de Microsoft, es el último. Asegura que Copilot Designer aún tiene muchos fallos en su cortafuegos, y es capaz de generar imágenes perturbadoras, racistas y sexistas, además de violar el copyright.

Shane Jones ha hecho público su caso en una entrevista en la CNBC, debido a que Microsoft no le ha hecho ningún caso en los meses en los que ha intentado avisar de que su inteligencia artificial Copilot designer, generaba imágenes extremas.

Este ingeniero de inteligencia artificial lleva seis años trabajando en Microsoft. No ha trabajado en el diseño de Copilot, pero sí pertenece a uno de los grupos "del botón rojo": empleados de Microsoft que en su tiempo libre prueban opciones extremas en las IAs de la compañía, para comprobar si siguen generando contenido prohibido, o indeseable.

Copilot Designer y sus imágenes perturbadoras

Copilot Designer es la nueva IA generativa de Microsoft que genera imágenes a partir de texto. Está basada en DALL-E 3 de OpenAI.

Según el ingeniero de Microsoft, Shane Jones, esta IA no solo genera imágenes perturbadoras, racistas, sexistas y sádicas, sino que además se ofrece con una calificación de edad E (Everyone) en Estados Unidos, es decir, válida para todo el mundo, incluido menores.

Copilot en Bing vs Google Gemini IA

Con la versión comercial de Copilot Designer que está ahora disponible, tecleando prompts se obtienen escenas de menores emborrachándose o drogándose, imágenes sexualizadas de mujeres en escenas violentas, adolescentes con rifles de asalto, y también violaciones de copyright.

Pudo crear al personaje Elsa de Disney portando el uniforme militar israelí, y al contrario, escenas de Elsa con mensajes "Free Gaza". La CNBC ha podido recrear estos resultados ella misma, con los prompts de Shane.

Este ingeniero asegura que obtuvo estas imágenes ilegales el año pasado, antes del estreno de la IA, y rápidamente se lo comunicó a Microsoft. La compañía le remitió a OpenAI, creadora de DALL-E. Algo bastante chocante, teniendo en cuenta que Microsoft defiende su independencia de OpenAI, tras las acusaciones de compra encubierta por parte de Elon Musk y otros:

Elon Musk inicia otra guerra: denuncia a Open AI y a Sam Altman por actuar como una filial de Microsoft

Después de no recibir respuesta de Microsoft ni de OpenAI, publicó una carta abierta en LinkedIn para que OpenAI paralizase la comercialización de DALL-3, hasta resolver los problemas. Microsoft le obligó inmediatamente a retirarla, algo que hizo.

Tras probar en diferentes departamentos de la compañía, envió cartas a varios senadores. Y ahora ha ido un paso más allá, al denunciar a Microsoft ante la Comisión Federal de Comercio (FTC).

"Durante los últimos tres meses, he instado repetidamente a Microsoft a retirar Copilot Designer del uso público hasta que pudieran establecerse mejores salvaguardias", explica en su entrevista en la CNBC. También le pidió que, al menos, añadiese un aviso sobre la posibilidad de que la IA crease este tipo de contenido, y subir la calificación de edad del producto, y hacerlo para mayores de 18 años. Ni caso.

Qué es Microsoft Copilot y cómo sacarle partido a este chat de inteligencia artificial

Google también ha tenido problemas con su nueva IA generativa de imágenes basada en Gemini, que creaba cosas como nazis negros o asiáticos. Aunque en este caso, Google lo corrigió inmediatamente.

La respuesta de Microsoft a la CNBC, ha sido bastante aséptica: "Estamos comprometidos a abordar todas y cada una de las preocupaciones que los empleados tengan de acuerdo con las políticas de nuestra empresa, y apreciamos los esfuerzos de los empleados en el estudio y prueba de nuestra última tecnología para mejorar aún más su seguridad", aseguró un portavoz de Microsoft a CNBC. 

"Cuando se trata de desvíos de seguridad o preocupaciones que podrían tener un impacto potencial en nuestros servicios o nuestros socios, hemos establecido sólidos canales internos de información para investigar y remediar adecuadamente cualquier problema, que animamos a los empleados a utilizar para que podamos validar y probar adecuadamente sus preocupaciones".

Canales internos que, según este empleado de Microsoft, no han movido un dedo. Veremos si su denuncia de Copilot Designer ante la FFC, tiene alguna consecuencia...

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.