¿Es ChatGPT la puerta para que cualquiera cree un arma biológica? OpenAI tranquiliza con resultados
Gettyimages/ComputerHoy
- Con el objetivo de tranquilizar a la población y gobiernos, OpenAI ha lanzado un estudio completo con resultados que muestran el potencial de ChatGPT y, en concreto, la versión que usa GPT-4 para crear un arma biológica.
- "En una evaluación que involucró tanto a expertos en biología como a estudiantes, descubrimos que GPT-4 proporciona como máximo una leve mejora en la precisión de la creación de amenazas biológicas".
OpenAI vuelve a la carga y de nuevo lanza un mensaje tranquilizador en relación con las preocupaciones de que GPT-4, su último modelo de lenguaje, pueda ser utilizado para la creación de armas biológicas.
En un estudio reciente, la compañía ha presentado sus resultados, comentando que la inteligencia artificial podría influir "sólo un poquito" en este ámbito que, la verdad, asusta, por ser potencialmente peligroso para la humanidad.
La Casa Blanca ya expresó su miedo en octubre del año pasado sobre cómo esta tecnología podría reducir esa barrera de entrada para desarrollar armas biológicas. En respuesta a esta inquietud, OpenAI lanza resultados y no solo palabras que precisamente ha evaluado la efectividad de GPT-4 en la creación de amenazas biológicas.
La compañía reunió a 50 expertos en biología y 50 estudiantes universitarios, dividiéndolos en grupos de control y tratamiento, y les pidió idear planes para crear y lanzar un arma biológica utilizando solo Internet o Internet junto con GPT-4.
Estos números "no son lo suficientemente grandes como para ser estadísticamente significativos"
En cuanto a los resultados, GPT-4 mostró un aumento en la precisión y la integridad en la creación de armas biológicas, pero la compañía destaca que estos no son estadísticamente significativos.
Aunque la mejora en la eficiencia fue modesta, con expertos experimentando un aumento del 8,8% y estudiantes un 2,5%, OpenAI quiere subrayar que el acceso a la información que hay en Internet por sí solo no es suficiente para materializar una amenaza biológica.
"Descubrimos que GPT-4 proporciona como máximo una leve mejora en la precisión de la creación de amenazas biológicas", explica OpenAI en una publicación de blog. "Si bien este aumento no es lo suficientemente grande como para ser concluyente, nuestro hallazgo es un punto de partida para continuar la investigación y la deliberación comunitaria", añade.
No obstante, como puedes ver, la compañía reconoce que estos resultados son tan solo la punta del iceberg para seguir indagando y realizar futuras investigaciones y debates a nivel mundial. No obstante, hay que mencionar que el estudio no ha evaluado cómo GPT-4 podría ayudar a la construcción física de una amenaza, lo que, por ejemplo, podría ser un buen hilo del que tirar a continuación.
Redactora de Tecnología
Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.
Otros artículos interesantes:
- "ChatGPT is at capacity right now": qué significa este error de ChatGPT y todas las formas de solucionarlo
- Así puedes configurar ChatGPT para usarlo como tu asistente en el móvil
- Nuevo Samsung Galaxy S24 Ultra: mejora la experiencia con la Inteligencia Artificial Galaxy AI
Conoce cómo trabajamos en Computerhoy.