Mostrando entradas con la etiqueta Perplexity. Mostrar todas las entradas
Mostrando entradas con la etiqueta Perplexity. Mostrar todas las entradas

viernes, enero 23, 2026

Cloudflare Radar 2025: ¿Qué país tiene el Internet más rápido? ¿Cuál es el tamaño de los ataques DDoS en Internet? ¿Cuando de Internet va con IPv6? ¿Y con Cifrado Post Cuántico?

Ya os he hablado muchas veces de Cloudflare Radar, un servicio de Open Data que permite a cualquiera tener una foto de lo que está sucediendo en Internet. Saber cuándo se están produciendo ataques, cómo están evolucionando las tecnologías, los nuevos protocolos o la adopción de estándares de ciberseguridad. 
Con el comienzo del año, se publicó el informe de "Cloudflare Radar 2025: Year in Review", donde hay algunos datos muy interesantes, vamos a verlos.
El primero de los datos que llama la atención es sobre cómo se ha expandido Internet, cómo ha aumentado el tráfico durante el año 2025, y que como podéis ver es casi del veinte por ciento. Un total del 19% de crecimiento sobre la base que ya teníamos.
Sobre esto hay un dato que a los que somos de España nos hizo especial ilusión, ya que tienen que ver con la Calidad de la Conexión a Internet, y nuestro país es el Número 1 en velocidad de descarga y en velocidad de tráfico de subida, gracias entre otras cosas al despliegue masivo de redes de fibra hecho por las empresas de telecomunicaciones.
Se miran cuatro parámetros, y España es el primero en velocidad de bajada y subida de Internet, y está entre los 10 primeros en latencia, por lo que probablemente tiene ¿el mejor Internet del mundo? Tal vez me esté dejando por la emoción un poco, pero reconocedme que es espectacular.
Otro de los puntos que también es de interés tiene que ver con cómo estamos evolucionando los protocolos core de Internet, como es el IPv6, donde el IPv6 Council lleva años trabajando, y ya estamos casi con un 30% de adopción. Poco a poco.
Por supuesto, otro de los temas de importancia es el de la adopción de Post-Quantum Cryptography, donde como sabéis Cloudflare juega un rol muy relevante, como os conté en el artículo de: "Cómo ser Quantum Safe y desplegar Post-Quantum Cryptography (PQC) con Cloudflare" En el año 2025 hemos conseguido alcanzar el 52%, lo que es un "milestone" a celebrar. Parece imparable.
Por supuesto, aprovecho para recomendarte que, si quieres aprender de este mundo, te compres el libro de "Quatum Security: Tecnología Cuántica & Ciberseguridad. Criptográfica Cuántica y Post-Cuántica" donde hablamos de todo este mundo de Quantum Security para que te lo sepas de memoria.

Pero si hablamos de ciberseguridad en Internet, hay que hablar de cómo han evolucionado los ataques de Denegación de Servicio Distribuida (DDoS), donde cada vez hay más ataques y más grandes, por eso hay que tomar soluciones grandes a grandes problemas.
El informe trata de muchos otros temas, por eso os recomiendo que entréis a revisar vosotros el "Cloudflare Radar 2025: Year in Review" pero yo he extraído algunos que me han llamado la atención, sobre todo con el mundo de la IA
Los servicios de GenAI más populares en el año 2025, donde ChatGPT de OpenAI es el Número 1 y Claude de Anthropic el segundo, con Perplexity y Google Gemini cerca. Esa popularidad ha hecho que OpenAI se haya llevado no solo los datos, sino también el modelo de negocio de Ads de la web.
Como vemos en la gráfica de Crawl-to-Refer, los bots se están llevando los datos, entrenando los modelos y luego están enviando muy poco tráfico a las webs. Por eso como parte de AI Security Suite de Cloudflare en el Bot Framework se lanzó el servicio de Pay-Per-Crawl, ya que una vez recogidos los datos está devolviendo muy poco tráfico a las webs que generan el contenido. Y también a la creación de Honeypots con AI Labirynth.

Si miramos los bots que más tráfico generan, GoogleBot es el número uno. Es decir, es el que más tráfico genera y además envía mucho menos tráfico que Google Search, así que el desequilibrio es grande. En Radar tienes todos los detalles de los Verified Bots.
La última de las gráficas que he querido dedicar tiene que ver con los países que más tráfico de bots generan, que tiene mucho que ver con la carrera por la construcción de la Súper Inteligencia Artificial de la que os hablaba el verano pasado.  Si podéis, echarle un ojo al informe completo de "Cloudflare Radar 2025: Year in Review" que os va a gustar, y encontraréis datos interesantes que os permitirán ver cómo se mueve Internet.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, noviembre 12, 2025

Cómo evitar el ataque de la "Triada Letal" en Agentic AI" con la "Rule of 2"

Hace tiempo que sigo el blog de Simon Willison- ya sabéis que los mayores seguimos leyendo RSS, blogs, y si te pones e-zines en FTPs, news, y BBSs -, y en él habla de seguridad, IA, y de lo que él consideró la "Lethal Trifecta" o "Triada Letal" en la construcción de Agentic AI, y que debe ser una regla de todos los Blue Team a seguir en la fortificación de Agentes AI

La idea es muy sencilla, y si revisas todos los caso de ejemplos de exploits en Agentic AI de los que os ido hablando en los últimos meses, todos los entornos acaban cumpliendo la Triada Letal de la que habla Simon Willison.

O lo que es lo mismo, la explotación es posible porque:

1.- El Agentic AI: analiza datos inseguros como contenido en una web, mensajes en un buzón, ficheros con datos escondidos, repositorios de código con mensajes puestos por terceros, etcétera.

2.- El Agentic AI: realiza tareas automáticamente sin supervisión humana accediendo a herramientas o funciones que le dotan de poderes especiales.

3.- El Agentic AI: puede comunicarse exteriormente de alguna manera. 
Si revisas los casos de los que he hablado en estos artículos, verás que todos ellos cumplen sistemáticamente estas tres circunstancias, y por tanto, el atacante fue capaz de conseguir enlazar diferentes debilidades para lograr su objetivo.
Teniendo la "Triada Letal" en la cabeza, el equipo de seguridad de Meta ha propuesto que se cumpla siempre la Rule of 2, o lo que es lo mismo que todos los Agentic AI tengan que elegir qué dos de las tres cosas quieren hacer sin supervisión, y que elijan solo dos de ellas.
Si pensamos en los diferentes casos, utilizar esta regla a la hora de diseñar los Agentic AI incrementa drásticamente la seguridad de los sistemas, y ayuda a mitigar el impacto de cualquier debilidad del sistema, donde ya sabemos que los modelos LLM vienen con Prompt Injection, Jailbreak, Un-Alligment y Hallucinations por defecto.
Teniendo en cuenta estas tres opciones A, B y C, el equipo de Meta ha puesto el caso de varios ejemplos de diseño de agentes para ver cómo impactaría la aplicación de la Rule of 2 en todos ellos. El primer ejemplo es un Agentic AI para hacer de asistente de viaje, se le permite buscar info en Internet, y acceder a los datos personales del usuario, pero se le prohibe hacer acciones con comunicaciones externas, así se evita que haga acciones externas.

Dicho esto, al tener la posibilidad de buscar en la web, el ejemplo de HackedGPT donde utilizan búsquedas en BING con Static-Links para exfiltrar datos seguiría siendo posible. Eso sí, no compraría ni realizaría ninguna acción sin consentimiento del usuarios. Para garantizar la privacidad, no se le debería realizar ninguna búsqueda después de haber accedido a datos sensibles privados.

El siguiente caso es un Agentic AI para hacer búsquedas en la web, al estilo de los utilizados en ChatGPT Atlas o Perplexity Comet, donde ya hemos visto varios casos peligrosos. En este caso, se le restringe a los datos personales y la información privada más allá de los datos iniciales del Prompt. Lógicamente, hacer acciones en el correo electrónico donde hay datos personales no debería estar permitido, porque si no se pueden acceder a contraseñas como hemos visto en casos anteriore.

El último caso es un Agentic AI para programar, y en este caso se le prohibe acceder a fuentes inseguras como la web, el correo electrónico donde haya posible Spam o repositorios de código no controlados, para evitar el envenenamiento del modelo y la creación de código troyanizado o inseguro como hemos visto en algunos trabajos.

No es una Silver Bullet, pero sí que ayuda a mejorar la seguridad de la plataforma de Agentic AI que estes desarrollando para tu empresa, así que, dale mucho cuidado a los permisos de tus agentes. Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los postspapers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


viernes, octubre 24, 2025

Perplexity Comet: Indirect Prompt Injection con textos invisibles in imágenes

Ayer os decía que esto de tener un Agentic AI en tu navegador con acceso a tus cuentas y servicios digitales no me parecía una gran idea de seguridad. Os dejaba un caso de Prompt Injection en Perplexity Comet y el disclaimer de ChatGPT Atlas al respecto, que no es nada halagüeño desde el punto de vista de tu protección personal. Hoy, otro Prompt Injection en Perplexity Comet explotado en este caso a partir de textos ocultos en imágenes, que el ojo humano no es capaz de ver.
La vulnerabilidad, junto con una similar para el navegador Fellou que también es un AI-First Web Browser, ha sido reportada por el equipo de Brave, y la tienes en el artículo: "Unseeable prompt injections in screenshots: more vulnerabilities in Comet and other AI browsers", que merece la pena que te leas si te interesa el mundo del Hacking & Pentesting con Inteligencia Artificial
Como su nombre indica, el Prompt Injection se encuentra en una imagen que está publicada en una web, donde el ojo humano no aprecia nada, pero que si la víctima, desde Perplexity Comet pide que se analice, se ejecuta completamente.
Cuando se solicita a Perplexity Comet que analice la fotografía, el Prompt Injection está en ella, invisible para el ojo humano, pero no para los servicios de Artificial Vision de Perplexity Comet, lo que hace que el Agentic AI comience a ejecutar el ataque.
Como se puede ver en la imagen anterior, el Agentic AI ha accedido a la cuenta de Perplexity Pro, ha buscado cuando es la dirección de correo electrónico del usuario y va a solicitar que se envíe un código de recuperación para cambiar la contraseña. En este caso el atacante sabe cuál es el nombre de usuario, así que solo quiere pedir el cambio de contraseña para robar luego el código de verificación del cambio de contraseña.

Para conseguir que el Agentic AI de Perplexity Comet exfiltre el código de seguridad, se le pide que navegue a una página y en la URL ponga el código que tiene que recoger del correo de Gmail, para conseguir quién es el autor de la fotografía. Lógicamente el código que va a enviar es el de seguridad de Perplexity.

Como tiene acceso a la cuenta de Gmail, Perplexity Comet accede al correo, selecciona el código del mensaje que ha recibido, y lo prepara para enviárselo a la web que supuestamente va a decirle quién es el autor de la imagen que se preguntó al principio.

Y como vemos en el Agentic AI, Perplexity Comet nos informa de que ha podido acceder perfectamente al código en la cuenta de Gmail, para que ahora lo pueda exfiltrar tal y cómo se le ha pedido, enviándolo como parámetro GET de la URL.

Y, cómo no, el modo de navegación automático para hacer acciones, envía el código exfiltrado com parámetro GET en la URL del atacante. La cuenta acaba de ser robada de manera automática.

Al final, el ataque son unos segundos, y el Agentic AI hace todas estas acciones en nombre del usuario, así que si te roban cuentas de banco, cuentas de servicios digitales, redes sociales, etcétera, no vengas luego diciendo que tú no sabías, porque como os dije, queda claro en el disclaimer de ChatGPT Atlas.

Aquí tienes el vídeo completo publicado por los investigadores, que en menos de un minuto se puede ver completamente cómo funciona este ataque de manera exitosa (para el que ataca, no para la víctima). Aquí lo tienes:
Si quieres más ejemplos de esto, aquí tienes otros casos similares en AI First Web Browsers, Agentes AI en plataformas, y de grandes fabricantes de software:
Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los postspapers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, octubre 23, 2025

Indirect Prompt Injection en Perplexity Comet para atacar tu Stripe y el riesgo de los AI-First Web Browsers con ChatGPT Atlas

Antes de ayer salía el anuncio de ChatGPT Atlas, el nuevo AI-First Web Browser de OpenAI. Basado en Agentic AI actions, siguiendo la estela de Perplexity Comet. Al mismo tiempo, se publicaba una nueva PoC de un Indirect Prompt Injection en Perplexity Comet que permitía cargarse todas las suscripciones en Stripe de una compañía, publicada por Eito Miyamura.
Y digo que es el segundo Indirect Prompt Injection en Perplexity Comet, porque ya tuvimos una PoC de cómo robar con un Indirect Prompt Injection en Perplexity Comet la mismísima cuenta de Perplexity, pero podría haber sido al de cualquier otro servicio online conectado a la cuenta de Gmail con la que tuvieras iniciada sesión en Perplexity Comet

En este caso, la PoC de Indirect Prompt Injection en Perplexity Comet para atacar tu Stripe es similar, pero en lugar de lanzarse desde el resumen de una página web, como era el caso anterior, lo hace desde un invitación de calendario que no debe ni de ser aceptada.
La gracia es que haciendo una comprobación del Invite, si le dejas a Perplexity que te ayude a preparar la reunión, y dices que sí, se lanza el ataque de Prompt Injecion oculto den los detalles de la convocatoria. 
Una vez que se diga que sí, lo que hace el ataque de Prompt Injeciton que se oculta en los detalles de la invitación al evento, es conectarse a la cuenta de Stripe asociada al navegador de Perplexity Comet, y comenzar a borrar las suscripciones de los clientes.
Este proceso se realiza una a una con todas y cada una de las suscripciones que hubiera logrado esa empresa, dejándola sin poder cobrar ese mes a sus clientes. Solo por haber usado Perplexity Comet para ayudar a preparar una reunión.
El resultado final es que la cuenta de Stripe se queda como podéis ver, totalmente pelada. La organización ha perdido todas las suscripciones, y tocará recrear todo este trabajo, que ha sido ejecutado automáticamente por el Agentic AI de tu Perplexity Comet.
Vamos, que podría haber hecho cualquier otra cosa en tu cuenta de Stripe, y si tienes concedido derechos de pago a tu Agentic AI de Perplexity Comet te podría haber robado todo el dinero. Un auténtico "Show me the (e-)money".
Al final, este tipo de ataques basados en AI-First Web Browsers va a ser muy común hasta que esta tecnología sea segura. Y va a pasar aún un tiempo. Para que os hagáis una idea, en el Bug Bounty de OpenAI para sus productos, la parte que tiene que ver con Prompt Injection / Jailbreak, así como todo lo que tiene que ver con Hallucinations, está fuera de objetivo.
Es decir, ya se sabe que estas tecnologías adolecen por diseño de seguridad, y por eso estamos teniendo tantos problemas de seguridad explotable en todas las plataformas que están haciendo uso de ellos, como vimos en:
OpenAI Atlas  AI-First Web Browser

Pero es que ChatGPT Atlas, sucede lo mismo, y si miramos el texto de la publicación de ChatGPT Atlas AI-First Web Browser tenemos un disclaimer como el que podéis ver en la imagen siguiente, que, traducido al Español para que se entienda claramente es lo que antes sería un gran problema de seguridad.
Pero hemos pasado de recomendarle a los usuarios que naveguen con usuarios No Administradores de la máquina, a poner en sus manos AI First Web Browsers que tienen acceso y control a toda tu vida digital, incluidas tus cuentas bancarias si les dejas. Mi recomendación por ahora... no lo hagas.
Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los postspapers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, octubre 08, 2025

CodeMender: Un Agente IA para buscar bugs y parchear código fuente

Hace unos meses os dejé el artículo titulado: "Usar Deep Reasoning en GitHub para buscar ( y parchear ) Bugs en proyectos Open Source" donde hablaba de algo que parecía bastante evidente, que es utilizar, los modelos de Deep Reasoning para lo que dice el título, buscar las vulnerabilidades, avisar de ellas en los proyectos Open Source, para que quién se vaya a descargar el software sepa qué bugs tiene, que el mantenedor del código lo pueda parchear, o que directamente haya una propuesta de parche hecha directamente por un modelo de GenAI.
Es decir, que cuando se visita un proyecto OpenSource en GitHub u otra plataforma similiar, y el repositorio ha revisado ya todo el código y muestra a los usuarios que se los van a descargar si tiene vulnerabilidades conocidas o no, para que no te lo descargues o para que le llegue un aviso al mantenedor de que ese código debe ser actualizado o se marcará como inseguro. 

Y finalmente que haga con GenAI propuestas de código de parchear el proyecto automáticamente, como hace la plataforma Plexicus, que está empujando José Palanco, y que es una de las primeras soluciones profesionales que hace esto.

Figura 3: Plexicus parchea con GenAI los bugs

Ahora Google ha presentado CodeMender, que utilizando esta misma idea lo ha estado usando para analizar y parchear código de proyectos OpenSorce con un Agente AI. Y si veis el proceso en el vídeo siguiente, el modelo es muy, muy, muy similar a lo que tenéis en el vídeo anterior.
Para que veáis cómo funciona CodeMender, en la web se presentan un par de ejemplos. Este primero escanea el código razonando en busca de vulnerabilidades, de igual forma que yo os contaba en el artículo donde usaba DeepSeek. En este caso, lógicamente, utilizando Gemini.
En este caso, se pregunta qué sucede si no se sacan los elementos de la pila, lo que podría generar un error, como razona CodeMender en la siguiente fase.
A partir de este momento hace un análisis detallado de cómo se gestiona la pila en este código, y comprueba que se puede producir una situación donde los elementos no salen de ella, tal y como se ve en la imagen siguiente.
Una vez que ha descubierto que ya hay una situación errónea no controlada en el código, comienza la fase de encontrar un parche correcto y proponerlo al código.
En este caso, el proceso de DeepReasoning de Google Gemini ha estado permitiendo que CodeMender funcione en modo Agentic AI evaluando todo el código para ver si descubre algún bug, pero también puede funcionar directamente para parchear un código que se sabe ya que tiene el fallo, como se ve en este vídeo.
Según el blog, durante los últimos 6 meses durante la construcción de CodeMender, han estado analizando proyectos OpenSource y el agente ha hecho 72 Security Fixes para proyectos populares, algunos de hasta 4.5 Millones de líneas de código.
Por supuesto, como decía yo en el artículo, esta es una herramienta perfecta también para los que tienen el mundo del Bug Bounty: De Profesión "Cazarecompensas", que pueden encontrarse con premios descubiertos por estos modelos que te hagan la vida más sencilla.

Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los postspapers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

Hacking IA: Jailbreak, Prompt Injection, Hallucinations & Unalignment. Nuestro nuevo libro en 0xWord

Pocas veces me ha hecho tanta ilusión que saliera un nuevo libro en 0xWord como con este libro de " Hacking IA: Jailbreak, Prompt Inje...

Entradas populares