Logo Computerhoy.com

OpenAI suaviza su postura sobre el uso de ChatGPT con fines militares, y esto es lo que supone a partir de ahora

He probado a 'hackear' ChatGPT para que se salte las políticas de OpenAI y este es el resultado

Se acaban de notar interesantes e importantes cambios en la política de uso de OpenAI para ChatGPT, unos cambios que afectarían al futurible uso de esta tecnología y que, según los expertos, esto podría tener cierto riesgo.

OpenAI ha cambiado ciertas restricciones a las aplicaciones de uso militar de su tecnología, un cambio realizado el pasado 10 de enero y que ya ha traído ciertas críticas de los expertos.

Anteriormente OpenAI no permitía el uso de su tecnología para fines militares y bélicos. Si bien las nuevas políticas de uso aún prohíben su uso para fines como el desarrollo de armas o bien herir a otras personas o destruir propiedades, hay ciertos aspectos que se han suavizado. 

También el uso y desarrollo de armas sigue prohibido en estas nuevas políticas, pero no es algo que haya tranquilizado especialmente a muchos expertos.

Ganar dinero con ChatGPT

Básicamente lo que temen los expertos es la generalización de las políticas, algo que podría abrir mucho más al uso de esta tecnología en conflictos militares, como ya está sucediendo en el conflicto de Gaza.

Y no obstante, Sarah Myers West, directora general del AI Now Institute y ex analista de políticas de IA en la Comisión Federal de Comercio ha señalado que "el lenguaje que figura ahora en la política sigue siendo vago, y plantea preguntas sobre cómo OpenAI pretende abordar la aplicación de la ley".

Estos cambios de lenguaje podrían abrir la puerta a futuros contratos con el ejército, tal como ya tienen otras empresas tecnológicas.

Por otra parte, un portavoz de OpenAI ha señalado a Business Insider que “existen casos de uso de seguridad nacional que se alinean con la misión de la empresa”.

Cabe aclarar que OpenAI ya está trabajando con la Agencia de proyectos de investigación avanzada de defensa "para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura de las industrias críticas".

El hecho de que se haya abierto recientemente la tienda para crear modelos personalizados de ChatGPT, hace que este cambio de políticas pueda provocar la aparición de otro tipo de aplicaciones que no se habían pensado hasta ahora.

Estos cambios de políticas de uso ocurren con bastante frecuencia en el mundo de la tecnología a medida que va evolucionando el mercado y también las propias aplicaciones y productos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.