martes, junio 10, 2025

Disrupting malicious uses of AI: Operaciones de Misinformation, Malware, Cibercrimen & Estafas usando ChatGPT

El uso de LLM en campañas de ciberataques, cibercrimen y ciberespionaje se ha convertido en algo habitual. A lo largo de los últimos meses le he dedicado varios artículos hablando de los informes de empresas que han compartido las operaciones que han investigado con grupos maliciosos utilizando ChatGPT para sus operaciones.
De ellos he hablado en estos artículos que os dejo por aquí, porque merece la pena que te los leas antes de continuar, ya que te van a dar muy buen contexto de dónde estamos hoy en día.
De esos tres artículos, el último de ellos era de OpenAI, compartiendo las operaciones en las que ha estado trabajando para que conozcamos mejor cómo los atacantes están usando sus tecnologías en sus ataques, algo que puede ayudar a todos los investigadores. Ahora, han publicado el informe, titulado "Disrupting malicious uses of AI: June 2025" donde analizan una serie de operaciones.
Entre las operaciones que se analizan en el informe hay una buena variedad de escenarios. La primera de ellas "Deceptive Employment Scheme: ITWorkers" tenemos una operación conectada con Corea del Norte, donde los atacantes han estado trabajando en construir Currículos con ChatGPT adaptados a diferentes ofertas laborales para conseguir puestos de trabajo como empleados en puestos técnicos, y meterse dentro de empresas como si fueran trabajadores. 
Pero no sólo han usado ChatGPT para hacer los CV y rellenar los formularios de aplicación, sino que también ha creado los scripts para pretender que estaban trabajando, y para evadir los controles de seguridad en sus equipos. Una operación muy interesante de insiders usando IA.

Misinformation en Social Networks

La siguiente lista de operaciones, llamadas “Sneer Review”, "High Five", "VAGe Focus" y "Helgoland Bite" son campañas de Fake News, Fake Comments y Misinformation, es decir, difamación, bulos, cuentas falsas en redes sociales, etcétera.
Cada una de ellas, desde diferentes países como China, Iran, Rusia o Filipinas, y con diferentes objetivos, con la idea de crear corrientes de opinión, de realizar ataques, y weaponizar los LLM para hacer propaganda en diferentes campañas.

De estas operaciones de Misinformation hemos hablado mucho. El año pasado hicimos una plataforma para explicar cómo se hacen estas campañas, y os lo dejé todo en el artículo de "Cómo crear una Campaña de Polémica en Twitter ( X ) con ChatGPT y una botnet de cuentas controladas"


En estas campañas descritas por el equipo de OpenAI, han visto como esta capacidad de generar contenido en FakeNews y Misinformation es de uso bastante común  en casi todas. Aquí, más contenido falso generado por ChatGPT para la campaña de "VAGe Focus".

Si te interesan los detalles de cómo funciona debes leerte el artículo de "NewsBender, la manipulación de las noticias y la difamación en redes", esta charla de menos de 30 minutos que subí a mi canal Youtube, y que puedes ver aquí mismo.


Figura 8: Misinformation in the age of GenAI

El uso para crear desinformación con ChatGPT aparece en más operaciones, pero vamos a ver algunas muy interesantes, como el caso de ScopeCreep, donde se ha utilizado ChatGPT para hacer una campaña de distribución de malware.


En esta campaña, los atacantes han utilizado ChatGPT para construir el malware, de manera incremental, tal y como recogen en la siguiente lista de características donde se detalla qué le han ido pidiendo a ChatGPT este grupo de ScopeCreep.
Como se puede ver, los atacantes han hecho "Vibe Coding" para generar las diferentes piezas del malware. Yo os hice una pequeña demostración de este proceso, haciendo un dropper ofuscado para malware usando ChatGPT, y os publiqué el artículo de "Weaponizar ChatGPT para robar contraseñas WiFi y crear malware" donde también se hace algo similar.


En la tabla anterior tenéis catalogadas en el LLM ATT&ACK Framework Category las diferentes acciones realizadas en esta campaña de generación de malware en ScopeCreep.

Otra de las campañas que merece la pena revisar es "Vixen and Keyhole Panda" donde los atacantes están haciendo uso de ChatGPT para muchas cosas, desde generar scripts de ataques de fuerza bruta, hasta buscar vulnerabilidades e investigar cuál es el equipamiento que tienen los contratistas de defensa en USA.
Si miramos las acciones en el LLM ATT&ACK Framework Category vemos que este actor ha hecho un amplio uso de ChatGPT para acciones que van desde operaciones OSINT hasta Planificación Estratégica de los ataques.
Las operaciones descritas en el informe de OpenAI sobre UncleSAM y STORM-2035 son dos campañas de polarización social utilizando FakeNews y técnicas de Misinformation, lo que, como hemos visto en las primeras campañas, es algo muy masivo en casi todos los ciberataques estudiados.
Por último, la última campaña que cubre el informe es la de Wrong Number, que es una operación de ciberestafas, comunicándose con las víctimas por medio de SMS y mensajes de WhatsApp, y generando el contenido para engañar a las víctimas con ChatGPT.
Al final, usar las capacidades de ChatGPT para trabajos, ya sean estos ataques maliciosos, es muy potente, así que es fácil encontrar que, en una u otra fase de la operación, los malos van a apoyarse en sus capacidades. Lectura interesante la de este informe para entender mejor cómo funcionan los malos hoy en día.

PD: Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los posts, papers y charlas que he escrito, citado o impartido sobre este tema: Inteligencia Artificial (Hacking & Security): Links, Posts, Talks & Papers.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


No hay comentarios:

Entrada destacada

Inteligencia Artificial (Hacking & Security): Links, Posts, Talks & Papers

Durante los últimos años he publicado muchas artículos en este blog, y he dejado muchas referencias a otros artículos y papers académicos d...

Entradas populares