Logo Computerhoy.com

Expertos en seguridad desbordados ante la facilidad para crear malware indetectable con ChatGPT

Malware

DepositPhotos

Los ciberdelincuentes utilizan ChatGPT para crear un nuevo tipo de malware indetectable para las herramientas de ciberseguridad tradicionales. Para colmo, no se necesitan grandes habilidades para crearlo.

Los expertos en ciberseguridad han emitido una advertencia preocupante: los ciberdelincuentes están utilizando inteligencia artificial para crear malware peligroso capaz de adaptarse y cambiar, haciendo que sea muy complicado de detectar por las herramientas de ciberseguridad.

A diferencia del malware convencional, este nuevo tipo de amenaza no contiene código malicioso tradicional, lo que dificulta su detección por parte de los sistemas de seguridad y antivirus

Según un informe de investigación de CyberArk, el uso de la API de ChatGPT dentro del malware plantea importantes desafíos para los profesionales de la seguridad, convirtiéndose en una preocupación muy real.

CSO Online, una empresa de investigación en ciberseguridad, ha explicado que recientes ataques de prueba de concepto han demostrado cómo un archivo ejecutable aparentemente inofensivo puede llamar a la API de ChatGPT durante su ejecución. 

Esto permite que el malware genere versiones dinámicas y mutantes de código malicioso, lo que dificulta su detección por parte de las herramientas de ciberseguridad tradicionales que se usan día a día.

Inteligencia Artificial

Incluso los ciberdelincuentes aficionados pueden aprovechar esta facilidad de creación de scripts maliciosos. Según Mackenzie Jackson, defensora de los desarrolladores en la empresa de ciberseguridad GitGuardian, “a medida que los modelos mejoren y consuman más datos de muestra, la IA puede llegar a crear malware que solo pueda ser detectado por otros sistemas de IA”.

Aunque ChatGPT y otros modelos de aprendizaje del lenguaje están equipados con filtros de contenido para evitar la generación de contenido dañino, estos filtros pueden ser evadidos mediante técnicas de ingeniería social. 

Preocupaciones más amplias sobre el uso de inteligencia artificial

Estos problemas subrayan las preocupaciones más amplias sobre el uso de la inteligencia artificial. El profesor Yoshua Benjuís, una figura destacada en el campo de la IA, ha expresado su preocupación por el abuso de esta tecnología, afirmando que los militares no deberían tener acceso a ella

Además, Bengio ha advertido sobre el peligro de la desinformación y la posible manipulación de elecciones mediante el empleo de chatbots avanzados como ChatGPT. A medida que la IA sigue evolucionando, se requiere una mayor atención a los riesgos potenciales que plantea su mala utilización. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Ciberseguridad