Logo Computerhoy.com

Sí, la inteligencia artificial cada vez engaña más a los usuarios

Sí, la IA cada vez engaña más a los usuarios, según revela un estudio

¿Podría estar la inteligencia artificial mejorando su forma de engañar a las personas? Un estudio advierte que sí, y no duda en alertar de los riesgos que eso puede suponer en el futuro. 

Raro es el día en el que la inteligencia artificial no es protagonista. Por un lado, por los muchos avances que esta presenta, como ha sido el caso de ChatGPT-4o

Sin embargo, también sucede lo contrario: muchas voces dan señales de alarma en todo lo que concierne a esta tecnología. ¿Y quién no ha visto películas en las que la IA resulta fatal para la humanidad?

Por si acaso ya no existían suficientes temores, al menos entre una buena parte de la población, ahora un trabajo parece estar dispuesto a arrojar un poco más de leña al fuego. Después de haber estudiado la inteligencia artificial en profundidad, sus conclusiones son sorprendentes: la IA cada vez engaña más a los usuarios, es cierto. 

La inteligencia artificial, ¿una experta en el engaño?

¿Qué es engañar? Si le preguntas a cualquiera, seguramente te dirá que mentir o faltar a la verdad con algún propósito. Los creadores de un nuevo estudio relacionado con la inteligencia artificial, en cambio, lo explican con otras palabras. Para ellos, se trata de “la inducción sistemática de creencias falsas en otros para lograr un resultado distinto a la verdad”. 

Los científicos Peter S. Park, Simon Goldstein, Aidan O’Gara, Michael Chen y Dan Hendrycks han publicado un informe en el que aseguran que la IA es capaz de esto, y mucho más. Es decir, que se estaría convirtiendo en algo así como una experta en el arte del engaño. Por supuesto, esto conllevaría riesgos, pero hay soluciones. No todo está perdido. 

En cualquier caso, el diagnóstico de los especialistas preocupa: “Los grandes modelos de lenguaje y otros sistemas de IA han aprendido, a partir de su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, la adulación y la trampa en las pruebas de seguridad”, advierten en su informe. 

Por supuesto, los riesgos podrían ser considerables dadas las “crecientes capacidades de la IA para el engaño”. En el informe se habla desde riesgos que podrían experimentarse a corto plazo, como el fraude y la manipulación de elecciones, hasta amenazas que tardarían más en llegar, como la pérdida de control sobre los sistemas de IA. Algo que ya se ha advertido antes

Las soluciones para arreglar la IA son imposibles

Aunque los expertos temen las consecuencias que podría tener una IA descontrolada en eso de engañar a los seres humanos (como, según parece, ya sucede), también ofrecen soluciones. Es decir, que cambiar lo que pasa no es imposible. Solo serían necesarios “marcos regulatorios para evaluar los riesgos de engaño de la IA y leyes que exijan transparencia”. 

¿Se lograrán estas medidas en el futuro? No conviene olvidar, además, que este estudio irrumpe en un momento complejo para la IA. Por un lado, se valora todo lo que puede ofrecer la nueva versión de ChatGPT, pero también se ha visto cómo muchos ejecutivos de grandes tecnológicas han decidido abandonar sus puestos para alertar de la falta de seguridad. 

De momento, nadie parece ponerse de acuerdo acerca de si verdaderamente hay un riesgo manifiesto en esta tecnología, como en las películas de ciencia ficción, o no hay grandes motivos para preocuparse. 

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Inteligencia artificial