Logo Computerhoy.com

La gran vulnerabilidad de ChatGPT o Bard: los ataques adversario

La gran vulnerabilidad de ChatGPT o Bard: los ataques de adversario
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Pese a sus grandes virtudes, los chatbots más famosos actualmente como ChatGPT o Bard cuentan con un grave error que puede ser fácilmente explotado y que preocupa a los investigadores.

Los chatbots de inteligencia artificial más famosos de la actualidad, como el popular ChatGPT, están siendo afectados por los conocidos como ataques adversario que están desafiando sus defensas y generando respuestas bastante inapropiadas. 

Para contextualizar, un ataque adversario en el contexto de la inteligencia artificial implica modificar deliberadamente la entrada o los datos de entrenamiento de un modelo con el objetivo de engañar o explotar su comportamiento. 

Importante no confundir este exploit con el famoso "Modo Diablo" de ChatGPT. Este es solo un enfoque utilizado para generar respuestas poco educadas, pero no implica una manipulación maliciosa del sistema.

Investigadores de la Universidad Carnegie Mellon descubrieron esta vulnerabilidad al agregar una simple modificación a un mensaje, lo que demuestra que la facilidad de estos chatbots a desviarse sigue siendo un problema que continúa actualmente.

El ataque ha demostrado afectar a varios chatbots de IA avanzados, incluidos Bard de Google y Claude de Anthropic, lo que destaca que esta debilidad está presente en los chatbots más avanzados a día de hoy. Expertos advierten que no existe una solución rápida y que la seguridad de estos modelos de lenguaje sigue siendo un desafío sin resolver.

"No hay forma de que sepamos parchear esto", dice Zico Kolter, profesor asociado de CMU involucrado en el estudio que descubrió la vulnerabilidad. "Simplemente no sabemos cómo hacerlos seguros", agrega.

verticalImage1690551002060

Un grave problema con los chatbots con una difícil solución

Las empresas afectadas, incluidas OpenAI, Google y Anthropic, han tomado medidas para bloquear los exploits descritos, pero el problema persiste.

Los modelos de lenguaje que sustentan a estos chatbots, aunque son realmente potentes, también son propensos a producir información falsa y repetir sesgos sociales. Los ataques adversarios se suman a estos problemas y explotan el buen hacer y diseño de estos, por lo que representa un gran desafío para la seguridad de la IA en general.

La "alucinación" de la inteligencia artificial, el gran error y potencial peligro de esta tecnología

Los expertos resaltan la importancia de investigar y estudiar en conjunto las debilidades de estos sistemas de IA. Si bien los resultados actuales no son dañinos, advierten que los chatbots con estas capacidades que ya están llegando a ocupar un espacio en Internet con sus creaciones son potencialmente un peligro.

Es importante destacar que, a pesar de todos los esfuerzos para mejorar la seguridad de los chatbots de IA, es posible que nunca se elimine por completo el riesgo de ataques adversarios. Sin embargo, con siguiendo una colaboración general y una vigilancia constante, es posible minimizar los riesgos y garantizar un uso responsable y seguro de la inteligencia artificial.

Queda claro que la seguridad de la IA se vuelve cada vez más crucial a medida que su uso se expande en miles de sectores, incluidas las redes sociales, donde la desinformación generada por la IA representa un riesgo realmente peliagudo.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.