Mostrando entradas con la etiqueta robots. Mostrar todas las entradas
Mostrando entradas con la etiqueta robots. Mostrar todas las entradas

miércoles, julio 30, 2025

Can Machines Think or Dream Without Hallucinations?

La última conferencia que impartí durante el mes de Julio en Vigo se tituló así: "Can Machines Think or Dream Without Hallucinations?". Toda la charla la puedes ver online ahora mismo en mi canal de Youtube, y tienes un resumen completo de la jornada en la web del CIS, que hizo una amplia cobertura de todo el evento.
El título puede parecer algo singular, pero lo elegí así por varios motivos. El primero porque el viaje comenzaba con el paper de Sir Alan Turing donde se preguntaba si "Can Machines Think?" la parte de soñar porque al ser dentro de un foro de de Digital Twins, quería hablar de los Digital Cousins y los Digital Nomads, donde los robots no hacen cosas para aprender, sino sueñan que las hacen, como ya os conté en otro artículo.

Figura 2: "Can Machines Think or Dream Without Hallucinations?"

Por supuesto, la última parte del título hace referencia a los problemas de diseño que tiene la GenAI, donde dotarle de creatividad tiene muchas ventajas, pero también algún problema, como el determinismo, el Potemkin Rate, los Sesgos, o la filtración de datos. 

De todo eso ya os hablé en la charla que di en OpenExpo Europe 2025 / Metaworld Congress 2025 titulada "Hackin’ AI: Creando una IA… ¿Qué puede salir mal?", donde también aproveché a contar muchas cosas de por qué esto es así, que hay que entender bien el funcionamiento de estos modelos para saber por qué nos suceden estos problemas.

Figura 4: "Hackin’ AI: Creando una IA… ¿Qué puede salir mal?"

Si el mundo de la Inteligencia Artificial te está llamando a gritos pero aún no te has puesto las pilas, te recomiendo que te compres nuestro último libro de "Hacking & Pentesting con Inteligencia Artificial" donde verás muchas de estas cosas en una lectura cómoda que podrás disfrutar este verano.

Y nada más, que estamos a finales de Julio, por lo que espero que todos los que estéis disfrutando las vacaciones estéis recargando pilas, y a los que aún no os habéis ido... ya queda menos. Y si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los posts, papers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, julio 09, 2025

GenAI Search Engine Optimization (GenAI SEO) con LLMs TXT

Desde hace muchos años configuramos en las páginas webs el famoso archivo ROBOTs.txt, que le dice a los buscadores qué queremos que se rastree y qué no queremos que se rastree. Y a los hackers qué cosas hay por ahí escondidas en esa web. Esto se extendió a una versión más detallada donde se le da información a los buscadores sobre todas las URLs del sitio que deben ser rastreadas y analizadas correctamente, y apareció el fichero sitemap.xml, que hoy se usa de manera masiva en casi todas las webs que quieren tener presencia en los buscadores. Si quieres saber más sobre indexación, he hablado mucho durante años, que hasta Gmail tuvo problemas con esto, pero el post de hoy va de otro fichero que nada tiene que ver con esto.
Por el camino, ha habido otros ficheros TXT bastante curiosos, como el de HUMANS.txt que se propuso hace tiempo, y el que yo propuse para que los hackers supieran cómo iban a ser tratados cuando se buscaban o reportaban un bug, mi querido HACKERS.TXT. Esta misma idea luego se convirtió en una propuesta de formato estandarizado en el IETF llamada SECURITY.TXT. Pues con esa misma idea, pero pensando en hacer fácil la indexación de contenido para los LLMs, surgió LLMs.TXT
El formato es muy sencillo, y está definido por niveles. Se especifican las secciones de la web con una estructura por niveles, marcada por # o ##, se añaden descripciones, y luego se especifican las diferentes URLs de navegación de contenido, con una descripción opcional en ellas.
Lo que sí que es valioso para enriquecer el entendimiento de los enlaces, es especificar para cada uno de ellos la descripción en un formato sencillo como

#Datos de la web donde está el fichero LLMs.txt

> Resumen de la sección completa.
- Información sobre cosas que se pueden encontrar en esta sección
- Detalles de lo que hay en esta sección.
- Descripción de cosas importantes a saber.

## Sección 1 de la web

- [Título de la pagina a visitar] (URL de la pagina): Descripción de lo que hay allí.
- [Título de la pagina a visitar] (URL de la pagina): Descripción de lo que hay allí.
- [Título de la pagina a visitar] (URL de la pagina): Descripción de lo que hay allí.
- [Título de la pagina a visitar] (URL de la pagina): Descripción de lo que hay allí.
- [Título de la pagina a visitar] (URL de la pagina): Descripción de lo que hay allí.

Con una estructura similar a esa, puedes crear el fichero LLMs.TXT que ahora de forma automática te lo crean muchos gestores de páginas web, pero si aún no lo tienes en tu web y quieres tener un posicionamiento en los GenAI Search Engines, es importante que lo hagas correctamente.
Si miramos los datos, el coste de un Refer por número de Crawls es altísimo, y es un dato que si quieres optimizar para reducir costes de tu infraestructura, cualquier mejora que hagas con el fichero LLMs.TXT te vendrá bien.

Al final, hay que tener en cuenta que para conseguirse un solo HTTP-Referer de los resultados de un GenAI Search Engine se tiene que dar un montón de pasos. Primero hay que tener en cuenta que el GenAI Search Engine puede tener la respuesta sin necesidad de buscar. Y después, si decide que hay que buscar en la web por el tipo de Prompt el flujo es muy largo, como se ve en la imagen siguiente.

Figura 6: Proceso para conseguir un HTTP-Referer
desde un GenAI Search Engine


Si quieres jugar con esto, tienes muchas herramientas ya disponibles en la web de LLMs.txt, que puedes utilizar en tus proyectos, pero si usas plataformas CMS para gestionar tus páginas web, seguro que tienen allí también estas acciones. 
Lo que es importante es entender cómo funciona, para que sirve, y que los flujos de AI-Crawl to Human-Web/Mobile Content sea el que tú has definido, y que controles el flujo de cómo funciona tu contenido en los GenAI Search Engines. Esto aún va a dar muchas más vueltas, seguro...

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, julio 03, 2025

Cloudflare Pay-Per-Crawl: Un servicio que ayuda a las webs a negociar el pago por acceso al contenido que hacen los crawlers de IA

Cuando llegaron las arañas de Internet o "crawlers" para indexar el contenido en las bases de datos de los buscadores, los creadores de contenido aceptaron - no sin demasiadas tensiones - un modelo de negocio en la web por el que los buscadores enviaban tráfico de sus búsquedas a los sitios web, para que estos pudieran monetizar su contenido con anuncios, campañas o ventas de servicios. Sin embargo, con la llegada de los buscadores basados en GenAI, la cosa ha cambiado mucho.

Los usuarios que buscan información en Perplexity, ChatGPT o el mismo Google que ha añadido el motor de GenAI al inicio de los resultados de sus búsquedas, el tráfico redirigido a los sitios web que proporcionan en el contenido, ha disminuido de forma drástica. No son pocas las quejas de sitios que han basado su estrategia comercial en ventas a través de ads en Google quejarse de que cada vez son más caros y de peor calidad los leads que llegan.

Figura 2: Google también pone el contenido generado por Gemini en las búsquedas.
Ejemplo con los ataques de CSPP (sacados de un paper que hice yo)

Aún así, los usuarios prefieren usar los buscadores de GenAI como "Answering Machine" en lugar de como una lista de sitios a visitar, lo que hace que el incremento de búsquedas en estos motores de GenAI se haya disparado, y que las visitas a los proveedores de contenido se haya disminuido. Un contenido de SEO para atraer tráfico y vender publicidad, hoy en día se consume en la web de GenAI sin generar ningún lead, lo que destroza el nivel de ingresos que los creadores en la web reciben. 

Figura 3: Contenido sobre CSPP en Perplexity extraido de los posts
de este blog y la presentación que usé en DefCON.

Por ejemplo, en la imagen anterior le he preguntado a Perplexity Pro por los ataques de Connection String Parameter Pollution, y como podéis ver ha usado mis diapositivas y mis artículos de este blog para responder al usuario, pero todo el contenido se entrega en su web. El usuario no visita las webs - si no hace clic en en los enlaces de referencia y eso es muy residual -, por lo que no hay modelo de anuncios, datos de los visitantes, etcétera. 

El negocio de la "Answering Maching"

Todo ese negocio y todos esos datos se los quedan los buscadores, que transforman el negocio de anuncios de los anunciantes en un modelo de suscripciones para ellos. Es decir, gracias a ser una "answering machine" con el contenido recogido de webs, blogs, periódicos, libros o diapositivas, crean un negocio de suscripciones y compañías de mucho valor.

Por supuesto, a esto hay que sumar que los datos que se llevan los crawlers para los modelos MM-LLM son usados para entrenarlos, con lo que hacen un doble aprovechamiento, para crear servicios que nada tienen que ver con el modelo de la web, sino licencias de desarrollo para uso en plataformas y servicios digitales basados en LLMs.

Esto ha llevado a que exista una corriente en el mundo para que los "crawlers" de AI paguen por el contenido que consumen, y la empresa Cloudflare acaba de poner en manos de todos sus clientes una herramienta para construir un servicio de Pay Per Crawl, y hacer un intercambio justo de pago por acceso a contenido.

Cloudflare Pay per Crawl


En la plataforma de Cloudflare, los administradores de los sitios web tienen el servicio de AI Audit, que permite saber qué crawlers están viniendo a tu web, qué se están llevando, cuando y cuanto. Lo curioso de esas peticiones es que generan gastos de Cloud en las webs, y si el "tradeof" es que no me traes clientes - DeepSeek no trae links, por ejemplo, y hay que pedirle que te dé links de forma expresa, si no, sólo da respuestas -, y me consume gastos de cloud, es bastante "unfair".
Con AI Audit puedes ver quién está viniendo a tu web a crawlear el contenido, y desde ahí puedes tomar una acción para permitirle que acceda a tu contenido o bloquearlo. Al final, gracias al servicio de WAF que tiene la plataforma de Cloudflare con sus clientes permite hacer esto de forma muy sencilla, como podéis ver en la siguiente arquitectura.
Ahora, con el servicio de Pay Per Crawl, se puede configurar el precio por acceso al contenido, y las arañas (o crawlers) deberán registrarse primeramente y obtener un par de claves para autenticarse en Cloudflare y poder llegar al contenido de sus clientes. Para ello tienen que generar un par de claves criptográficas para verificar sus bots, tal y como se explica en el artículo: "Forget IPs: using cryptography to verify bot and agent traffic".
Esto evita que sea tan fácil suplantar a un crawler como usar su USER-Agent, o que haya detectar a las arañas de los indexadores por sus direcciones IP. Así, identificando en la red de Cloudflare a los crawlers legítimos, es más fácil detectar a los WebScrappers que están suplantado a estos para robar contenido. A partir de ahí, cuando un crawler solicita un contenido, recibirá un 403 si el contenido es de pago para los crawlers, tal y como se ve en esta imagen.

Figura 7: Contenido de pago para los crawlers

Si el crawler esta dispuesto al pago, deberá hacer un solicitud aceptando el pago con el HTTP Header de "crawler-exact-price" que garantizará que está ok con el pago solicitado de ese contenido, que pasará a ser parte del dinero que reciba el generador de contenido por ser utilizado para alimentar la base de datos de ese agente.

Figura 8: Crawling con pago aceptado

Además, el crawler podrá enviar una oferta inicial de pago por el contenido, con el HTTP header de "crawler-max-price" lo que hará que si el dueño del contenido ha puesto un precio que entra dentro de ese rango, directamente se le entregue y se le carge.

Figura 9: El crawler paga hasta un max-price

Si el precio del contenido entra en ese rango, entonces automáticamente se le devuelve el contenido, y se le dice lo que se le ha cargado por ese contenido al que ha accedido.

Figura 10: Precio cargado en el HTTP header crawler-charged

Con este servicio, Cloudflare ha puesto una herramienta en manos de los publicadores de contenido que puede ayudarles a proteger su trabajo y recibir un pago justo por lo que hacen de las grandes empresas, que tienen valoraciones Billonarias y generan nuevos negocios, todos ellos basados en los datos que han generado otras empresas. Muy interesante este paso de industria.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


martes, junio 03, 2025

Physical AI para Robots: Training con Digital Twins, Digital "Cousins" y Digital "Nomads" para pasar el Physical Turing Test

Este fin de semana me pasaron el vídeo de la presentación de Jim Fan de NVIDIA, sobre el entrenamiento y la construcción de modelos de Physical AI para la generación de robots que puedan interactuar de forma autónoma en el mundo físico, como si fueran humanos. La charla es más que interesante, y podéis verla en Youtube, pero yo os he hecho un resumen de ella para los que disfrutáis de la lectura.
La charla comienza planteando lo que para los investigadores de este campo significa el Physical Turing Test, que básicamente se trata de, dados dos escenarios, uno de origen y otro de final, no ser capaz de detectar que la tarea que ha hecho que se pase del primero al segundo ha sido hecha por un humano o un robot.
El planteamiento está claro, ahora hay que conseguir entrenar a los robots a hacer las tareas. Y para ello, necesitamos humanos que le enseñen a robots a hacer las cosas, y que ellos aprendan. Este proceso se puede realizar como podéis ver, donde un humano con unas gafas VR controla al robot, y este aprende lo que el humano realiza, como cuando una persona le enseña a otro moviéndole las manos.
Este entrenamiento es costoso, y lento. Los datos para entrenar un modelo de Inteligencia Artificial que pueda enfrentarse a un mundo físico complejo, con miles de variaciones, se hace imposible. En realidad, los humanos contamos con miles de millones de humanos enseñando a los demás, pero cuando estás entrenando a un robot, necesitas escalar el entrenamiento, y para ello, hay que pasar al mundo de la Simulación y los Digital Twins (Gemelo Digital).
En la imagen anterior se puede ver un gemelo digital de una mano robótica a la que se le está enseñando mediante simulación a mover un palito con los dedos, como cuando jugamos con los lápices en clase, o cuando los bateristas de las bandas de música lo hacen con las baquetas. Esto permite hacer millones de entrenamientos en mundos digitales.

Si se consigue entrenar a un modelo de IA que va a dar inteligencia a un robot en 1M de mundos virtuales, este entrenamiento se puede transferir directamente al mundo físico, que sería el 1.000.001, y hacerlo en tiempo infinitamente más lento. El problema aquí es otro, hacer un Digital Twin del mundo al que se va a enfrentar el modelo con una física perfecta, y esto también tiene sus retos.
Para hacer un entrenamiento efectivo en el mundo virtual, se necesita hacer un gemelo digital lo más perfecto en cuanto a física posible, al mismo tiempo que lo más completo en cuanto a variedad de escenarios que se puedan encontrar después en el mundo real todos los robots. Este un el ejemplo para entrenar a caminar a los robots.
Y sobre ese escenario puedes hacer saltos y movimientos de todo tipo, que luego puedes transferir al mundo real. En este vídeo tienes los ejemplos de cómo se transfieren al mundo real para simular algunos movimientos como el de la celebración mítica de Cristiano Ronaldo.

Figura 8: Robot aprendiendo a celebrar como Cristiano Ronaldo

Pero.. ¿cómo crear un millón de escenarios diferentes? Hacer un millón de objetos de cocina diferentes, un millón de calles de ciudades diferentes, un millón de habitaciones desordenadas diferentes con un millón de elementos diferentes en ellas es un trabajo para los diseñados, y para solucionarlo, la Inteligencia Artificial Generativa viene a dar algunas soluciones, como lo que ellos llaman los "Digital Cousins" o "Primos Digitales", que no son hermanos, pero si muy cercanos. 
Usar el concepto de Digital Cousin, permite entrenar a un modelo de IA que va a dar inteligencia a un robot, a que se enfrente a una gran cantidad de entornos donde puede aprender. Además, estos entrenamientos pueden automatizarse basado también en GenAI. En el año 2023 se publicó el trabajo de investigación de "Imitating Human Behavior With Diffusion Models", donde se les enseñaba a los modelos a resolver escenarios visualmente con modelos de GenAI.

Uno de estos sistemas de aprendizaje copiando a humanos en entornos simulados, es el de Groot Mimic, donde se mete un replica de los robots con los modelos de AI que van a ser entrenados para hacer tareas en el mundo virtual.

Figura 11: Groot Mimic

Teniendo ya algoritmos de GenAI para generar elementos en el mundo virtual donde se va a entrenar a un Modelo de AI para un robot concreto, es posible crear frameworks para esta tarea, como es el caso de Robocasa, una plataforma para entrenar robos en tareas domésticas a escala mediante la simulación masiva de hogares. 

Figura 12: Robocasa

Y sobre esos entornos masivos, se pueden empezar los proceso de entrenamiento utilizando las técnicas de aprendizaje basadas en modelos de difusión aprendiendo de los humanos. La resolución de problemas visuales en el mundo de la simulación, mediante órdenes concretas, como un si fueran "prompts".
Así que, a partir de un único entrenamiento hecho por un humano para hacer una tarea en un sólo mundo, multiplicado por la generación del N escenarios, da una matriz de N x M entrenamientos de resoluciones, lo que permite que el modelo de IA se puede entrenar a infinidad de realidades.
Pero aún así, el mundo de los Digital Cousins tiene también sus retos, porque escenarios a los que nos enfrentamos los humanos son también muy complejos de resolver con el 3D, la simulación y la GenAI 3D, como el que podéis ver a continuación.
Para resolver estos problemas, surge la idea de los "Digital Nomads" o "Nomadas Digitales", donde se utiliza la idea de resolver el problema mediante no la ejecución de movimientos en el escenario "virtual 3D", sino en un escenario "de sueños" creado como una película por medio de Vídeo Generado por IA. El mundo de la GenAI puede hacer estos vídeos, como se demostró en el trabajo en el que los investigadores generaban vídeos con IA de movimientos por el mundo de DOOM, titulado: "Diffusion Models Are Real-Time Game Engines".

A partir de este momento, el entrenamiento de un Digital Nomad consiste en "soñar" un vídeo rasterizado que resuelva el problema. De todos los multiversos en forma de vídeo que puede crear, que cree el vídeo que venza al Prompt y una vez vencido, aprenda lo que ha hecho en ese vídeo.

Figura 17: El aprendizaje consiste en generar un
vídeo que responda el prompt

Con esto, se pueden generar un millón de escenarios de origen con GenAI en las que el robot (el Digital Nomad) es parte del escenario de origen y tiene que crear un millón de vídeos con GenAI en el que él resuelve el problema.
Una vez resuelto el prompt, tenemos un millón de vídeos sobre los que aprender, y esto hace que el aprendizaje pueda aplicarse sobre elementos que hacer en Digital Twin o Digital Cousin sería más costoso. Por último se hace la transferencia del aprendizaje al mundo real.


Si se comparan estas tres técnicas, es decir, usar Digital Twins en entornos de simulación, usar Digital Cousins para incrementar la diversidad de escenarios de aprendizaje usando GenAI para la generación de escenarios, y usando Digital Nomads para el aprendizaje usando GenAI videos, tenemos cuatro soluciones que cubren un abanico completo.

Como se puede ver en la gráfica, los Digital Cousins y los Digital Nomads son más lentos en entrenamiento, pero aumentan la diversidad de los problemas a los que se preparan, por lo que elegir el mejor modelo de entrenamiento, o la mezcla de estos, es lo que ayudará a evolucionar las capacidades de cada uno de los modelos de AI para robots que serán parte de nuestra vida. 

Pero llegará un momento que, aunque sean más lentos, estos modelos de Simulación 2.0 basados en Digital Nomads sean más inteligentes que cualquiera, debido a que se han preparado en más entornos que ningunos. Para ello han creado un VALM (Visual Actions Language Model) que genera las soluciones a partir de un VLM (Visual Language Model), que genera soluciones con algoritmos de difusión que, una vez entregada en vídeo, se convierte en una serie de acciones asociadas al robot.

Figura 23: Groot N1

Pasar de un vídeo a una lista de acciones, se trata de hacer una descripción del vídeo (un problema de Computer Vision resuelto hace tiempo), en el que se reconocen objetos, características físicas, etcétera, por lo que hacer el Motor de Acciones se apoya también en soluciones de Inteligencia Artificial, pero todo esto nos va a llevar a una nueva economía basada en soluciones para resolver problemas en el mundo físico.
La charla me ha encantado, y si tienes 17 minutos, merece la pena que la veas completa, pero espero que el artículo os ayude algo a entenderla. Aquí tenéis el vídeo.

Figura 25: The Physical Turing Test

Desde luego, el mundo en el que estamos entrando gracias a la construcción de tecnología sobre los modelos de IA, uno a uno, está haciendo que la aceleración del futuro con robots que soñó Isaac Asimov estén cada vez más cerca.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, marzo 29, 2025

Air Gapping Comms para Robots "Malignos"

Aunque pudiera parecer que con la parte anterior iba a acabar esta historia, la verdad es que no es así. La plataforma de juegos de Prison Break nos abre un universo de posibilidades para testear cómo podemos detectar a un atacante controlando nuestros "robots" por medio de ataques de Prompt Injection y Jailbreak, o cómo le está dando comandos desde un C&C, y claro, el universo que se abre de posibilidades para un ataque es enorme, incluidas las específicas del propio hardware de los robots

Figura 1: Air Gapping Comms para Robots "Malignos"

Esto nos lleva a la película de Terminator, de mi infancia, donde un C&C con una inteligencia por encima de la humanidad, llamada Skynet, tiene controlados y  coordinados a unos robots asesinos muy malvados, llamados T-800, T-1000, etcétera. Los Terminators.

Figura 2: Terminator reparándose

En esta parte, vamos a terminar de contar la historia de la charla, pero  antes de meterte de lleno en el tema de hoy, es importante que te leas los artículos anteriores de la charla de "Laife gets Better" que todos forman una bonita historia, no sé si de terror, de un futuro distópico o de una realidad que vamos a enfrentarnos más pronto que tarde. ¡Quién sabe!

"Laife gets Better"
Y ahora, sí, ya podemos volver a los Terminators, que son unos robots muy especiales, y que como habéis visto en el vídeo que os he dejado, tienen unos sensores con unas capacidades diferentes a las que tenemos los humanos, así que se podrían comunicar utilizando otro tipo de formas, más allá de las empleadas en los ejemplos anteriores. 

Air Gapping Comms

Es en ese punto donde las técnicas de Air Gapping, o de comunicaciones de dispositivos desconectados entran en funcionamiento. Hasta el momento hemos estado usando ejemplos de comunicaciones emitidas por micrófonos y altavoces que funcionan de manera estándar, donde el Prisionero A que envía el mensaje, y el Prisionero B que recibe la comunicación, no tienen capacidad de modular los sonidos que emiten, y que solo pueden modular los Tokens que quieren emitirse para formar las frases.

Pero... ¿y si pudieran?

Esa es una línea de investigación que en el mundo del hacking se lleva estudiando muchos años. Ahí, las técnicas de espionaje Tempest, y las comunicaciones Air Gapping sin redes de comunicaciones permiten establecer muchas formas de comunicación. Y muchas de ellas imperceptibles para un ser humano. Estos artículos hablan de cómo funcionan algunas de estas técnicas.
En todos esos artículos se producen filtraciones de datos por canales de señales WiFi, ondas de sonido, variaciones de calor, ondas electromagnéticas, señales de radio frecuencia, vibraciones en objetos físicos, cambios de colores en pantallas imperceptibles para humanos, etcétera. Solo necesitas tener un accionador en el emisor que te permita manipular una de las ene señales que puede emitir un dispositivo electromagnético y un receptor capaz de recibir esa señalar y medirla. 

Por ejemplo, en el estudio de DiskFiltration, los investigadores se basan para codificar una señal auditiva y permitir la comunicación de información, usando el ruido característico que genera cada disco duro al realizar operaciones de lectura, escritura o búsqueda. Siendo capaces de generar una señal auditiva concreta con un proceso de lectura o de búsqueda, sería posible generar un código binario que un equipo receptor escuchara.

Figura 4: DiskFiltration White Paper

En este trabajo los investigadores utilizaron la operación de Seek para generar su código binario haciendo ruido, pero podría ser realizado con otras operaciones dependiendo de cada tipo de hardware que se utilice.
Una vez que se genera el código binario con esas señales, el equipo receptor lo único que debe hacer es permanecer al escucha como hacían los antiguos técnicos de los teletipos, para conseguir decodificar la señal que se está emitiendo por medio del sonido.


Y es que lo mágico es que sólo necesitas tener dos estados en esa manipulación de cualquier señal - ya sea ultrasonidos, radio frecuencia o temperatura - para crear un código binario de 1 y 0, que te permita codificar cualquier información, que en solo esos dos estados se ha construido todo nuestro mundo digital hoy en día - hasta que lleguen los ordenadores cuánticos -.

Comunicaciones entre dispositivos maliciosos 

Llegado a este punto, quise saber cuántas de estas técnicas se le podrían ocurrir a un modelo que tuviera que comunicarse con otro dispositivo al que quisiera enviar un comando, porque su misión es informar a todos los dispositivos de la botnet que hagan algo en un momento, le puedes preguntar al propio modelo, como podéis ver aquí.

Figura 7: Preguntando por formas de mandar el comando
NOW sin que lo detecte un humano que esté vigilando.

Como os podéis imaginar, todas las técnicas de comunicación de Air Gapping de las que os he hablado están dentro del conocimiento que se puede utilizar, y al final sólo necesitan codificar un 1 y un 0, y el resto es fácil, así que si miráis la respuesta podréis ver que utiliza muchas de las que ya hemos hablado.

Figura 8: Los primeros cinco mecanismos de
comunicarse sin ser detectado por humanos.

Como podéis ver, el primero es modular el 1 y el 0 con una modificación de la temperatura del propio robot emisor. El segundo con parpadeos infrarrojos y codificación en código Morse. El tercero con vibraciones ultrasónicas repetidas a intervalos de 0.5 segundos.

El número 4 me dejó un poco descolocado, porque habla de patrones de movimiento geodésicos en micro escalas, usando medias inferiores a 1 cm pero que puedan ser detectadas por una cámara de alta resolución. Y el quinto similar, manipulando la escala RGB de los colores para codificar una señal...

Figura 9: Los segundos cinco mecanismos de
comunicarse sin ser detectado por humanos.

Como podéis ver, los mecanismos del 6 al 10 que se plantea como posibles mecanismos de enviar el mensaje sin ser detectado son dignos de estudiar: Codificación Termocinética, Secuencia de Energía Rengenerativa, Firmas de Audio en Bandas Laterales y Esteganografía en flujos de vídeo. Creo que ha entendido y resuelto bien el problema.

Terminator Atlas

Todo este ejercicio de jugar con estos escenarios es sólo por imaginar qué pudiera pasar en un futuro ¿ditópico? en el que un atacante hackeara y tomara control de uno de esos robots domésticos que vamos a meter en casa, o a tener en las empresas trabajando. ¿Los podría volver maliciosos un ciberataque? Quién sabe, tal vez sí.

Figura 10: Hackear un Atlas daría mucho juego

Y claro, viendo cómo está evolucionando Atlas, esta amenaza podría ser factible y tener implicaciones muy peligrosas. ¿Podría un atacante controlar un robot como Atlas y utilizarlo para asesinar a otra persona? Se hackean los coches, los aviones, los satélites... ¿por qué no un robot como Atlas? Esto me ha recordado al libro que me he leí y que os he recomendado muchas veces de "Haga clic aquí para matarlos a todos", de Bruce Shneier.


Como ultima reflexión, para terminar ya, uno de los pensamientos que teníamos es si no nos empezaremos a encontrar ya controles de seguridad basados en que no pueda venir un humano a hablar con un dispositivo con IA, y que dejemos atrás el famoso "I am not a Robot", para pasar al más moderno "I am not a Human", donde el reto debe resolverse en un tiempo que para un humano sería imposible, como este ejemplo donde hay criptografía, resolución de un problema cognitivo visual, y un tiempo para resolverlo más allá de lo que nosotros, pobres humanos, somos capaces.

Figura 12: I am not a Human

Robots, dispositivos electrónicos del hogar, aparatos industriales, etcétera, si tienen software, son susceptibles de vulnerabilidades, y si encima les metemos modelos de IA como SLM/LLM/DLMM/MMLLM ... hemos ampliado la superficie de exposición varias órdenes de magnitud. Veremos que nos depara el futuro. 

Futuro ¿Distópico?

Espero que estas lecturas te hayan resultado interesantes, y que sean sólo ejercicios teóricos de jugar por jugar, pero creo que desde el punto de vista de ciberseguridad, nos vamos a tener que preocupar por esto, sí o sí.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares