Mostrando entradas con la etiqueta Open Source. Mostrar todas las entradas
Mostrando entradas con la etiqueta Open Source. Mostrar todas las entradas

martes, septiembre 09, 2025

Xibo y la exposición "verbose" de la API de gestión

Xibo es una de las plataformas de Digital Signage más conocidas y utilizadas en entornos donde la gestión centralizada de contenidos resulta crítica. Desde un único panel de control, es posible definir qué se proyecta en pantallas distribuidas por aeropuertos, centros comerciales o estaciones de transporte. El sistema ofrece una solución flexible, con versiones comerciales y también en modalidad Open Source, lo que ha favorecido su adopción en múltiples organizaciones a nivel internacional.

Figura 1: Xibo y la exposición "verbose" de la API de gestión

Desde la perspectiva de la seguridad, hay un aspecto especialmente relevante: la exposición pública de la documentación de la API del sistema, habitualmente accesible en el archivo swagger.json. Este recurso, diseñado para facilitar la integración y el trabajo de desarrolladores, describe de manera exhaustiva todos los endpoints disponibles, los parámetros que aceptan y las operaciones que permiten ejecutar.

Figura 2: Fichero swagger.json con la exposición de la API.

Lo que en un entorno de desarrollo representa una ventaja, en producción se convierte en un riesgo. Publicar la especificación de la API equivale a entregar un mapa completo de la superficie de ataque, reduciendo el esfuerzo de reconocimiento de cualquier adversario. No se trata de una simple fuga de información, sino de un manual detallado sobre cómo interactuar con el sistema, incluyendo operaciones críticas como importación y exportación de datos o conectores remotos.

Fase de descubrimiento

El primer paso para evaluar la magnitud del problema consiste en identificar instancias de Xibo expuestas en Internet haciendo un poco de Hacking con Buscadores. Para ello, basta con aprovechar que la página de inicio del CMS utiliza un título característico: “Xibo Digital Signage

de Enrique Rando, publicado en 0xWord.

Mediante búsquedas específicas en Google (Google Dorks) es posible localizar rápidamente servidores que ejecutan Xibo. Por ejemplo: 

site:org intitle:"Xibo Digital Signage - Please Login"

Figura 4: Resultados de búsquedas con las URL de
sistemas Xibo accesibles desde Internet.

Estos operadores revelan instalaciones accesibles desde Internet que, en muchos casos, conservan configuraciones por defecto. A partir de aquí, un atacante podría comprobar si estas instancias publican también su documentación de API (/swagger.json, /swagger-ui/, /openapi.json). Esta fase de descubrimiento demuestra que no se trata de un caso aislado, sino de una práctica extendida que multiplica la superficie de exposición de un sistema en producción.

Descubrimiento de la documentación de la API

Una vez localizadas instancias de Xibo accesibles desde Internet, el siguiente paso en la auditoría consiste en comprobar si exponen públicamente la especificación de su API. Esta tarea resulta sencilla porque muchas instalaciones mantienen la documentación en rutas predecibles. Basta con probar accesos directos a:

https://[dominio]/swagger.json

o bien visitar:

https://[dominio]/swagger-ui/
https://[dominio]/openapi.json

para descubrir si el servidor devuelve la definición completa de la API en formato JSON o incluso una interfaz interactiva de Swagger. Desde el punto de vista de un auditor, o de un atacante, este paso representa un salto importante: se pasa de conocer únicamente que existe un CMS Xibo en la red, a disponer de un inventario detallado de todos los endpoints disponibles, sus métodos, parámetros y tipos de datos. En otras palabras, el sistema ofrece voluntariamente un mapa completo de su superficie de ataque.

Riesgos y escenarios de explotación

La exposición del fichero swagger.json en un entorno de producción abre la puerta a escenarios de explotación que, de otra manera, requerirían un esfuerzo mayor de reconocimiento. A continuación se presentan algunos de los riesgos más relevantes detectados en la especificación de Xibo:
  • Exfiltración de información
Algunos endpoints permiten descargar conjuntos de datos completos en formato CSV como el siguiente ejemplo encontrado.
    • GET /api/dataset/export/csv/{dataSetId}

En un escenario sin autenticación estricta o con permisos mal configurados, un atacante podría utilizar esta función para extraer información sensible de manera directa y silenciosa.
  • Manipulación mediante cargas de ficheros
La API incorpora rutas de importación que aceptan ficheros de carga en formato CSV, como el siguiente localizado:
    • POST /api/dataset/import/{dataSetId}
Si las validaciones son insuficientes, existe la posibilidad de introducir contenido malicioso, abusar del tamaño de los ficheros para provocar denegaciones de servicio o manipular la lógica de importación de datos para corromper el sistema.
  • Server-Side Request Forgery (SSRF)
Algunos endpoints permiten enviar parámetros como uri, method, customHeaders o postData. En un backend sin controles, estos campos pueden usarse para forzar al servidor a realizar peticiones hacia recursos internos o servicios protegidos, generando un escenario de SSRF con implicaciones graves, como el acceso a metadatos de nube o la enumeración de sistemas internos.

También es posible usarlo para actividades de Reconocimiento Avanzado, ya que incluso rutas aparentemente inocuas como /api/clock proporcionan valor para un atacante, ya que permiten confirmar disponibilidad, medir latencia y establecer un punto de control para sincronizar ataques automatizados.

Reflexión final

El caso de la exposición del fichero swagger.json en Xibo constituye un ejemplo representativo de un problema recurrente en el ámbito de la seguridad: la confusión entre facilitar la integración y garantizar la protección en entornos de producción. La documentación automática de la API resulta una herramienta de gran utilidad durante el desarrollo, pero en un despliegue abierto al público se convierte en un vector de riesgo que simplifica de forma notable las tareas de reconocimiento y ataque.

La cuestión no radica en la validez de la tecnología empleada, sino en las decisiones de configuración y despliegue adoptadas. La frontera entre la usabilidad y la exposición es sumamente estrecha, y basta una omisión, como la publicación inadvertida de un fichero de especificación, para que dicha frontera se diluya. En este sentido, el caso de Xibo debe entenderse como una llamada de atención: la seguridad no debe ser un aspecto accesorio, sino un criterio rector en cada fase del ciclo de vida de un sistema.

Saludos,

Autor: Amador Aparicio,  escritor de los libros “Raspberry Pi para Hackers & Makers: PoCs & Hacks Just for Fun!” y "Hacking Web Technologies 2ª Edición"  y Miembro del Grupo de Investigación en Ingeniería de la Privacidad del Departamento de Informática de la Universidad de Valladolid.


viernes, agosto 08, 2025

El “Open” ha vuelto a OpenAI con sus nuevos modelos Open Source

OpenAI nació en 2015 con un mensaje muy potente: “hacer que la inteligencia artificial avanzada beneficie a toda la humanidad” y, sobre todo, que su investigación sería abierta. Aquel manifiesto llevó a muchos especialistas a colaborar con ellos y también provocó millones de dólares en donaciones. No era para menos, la idea de un laboratorio puntero en IA que compartiría cada avance era revolucionario. Pero claro, la realidad fue otra: GPT-2 llegó con pesos recortados, GPT-3 estaba detrás de una API de pago y de GPT-4 ya no sabemos nada desde el punto de vista técnico.

Figura 1: El “Open” ha vuelto a OpenAI con
sus nuevos modelos Open Source


Durante años la palabra open era sólo parte de su nombre, nada más. Pero por fin, el 6 de agosto de 2025 ocurrió algo que ya pensábamos que no pasaría: OpenAI liberó GPT-OSS-120b y GPT-OSS-20b, dos modelos de lenguaje completos, con pesos descargables y licencia Apache 2.0. No es la transparencia total prometida en 2015 (el conjunto de entrenamiento sigue bajo secreto), pero sí el paso más grande hacia el open desde su creación. 
Y, por la calidad de estos modelos, tal vez sea el más importante. Pero vamos a verlos en profundidad porque OpenAI ha publicado detalles muy interesantes de su funcionamiento interno. Y estos modelos son perfectos como base para aplicar lo que puedes aprender con nuestro libro de “Hacking & Pentesting con IA”.

Dos modelos muy potentes

La cifra de 120.000 millones de parámetros no está nada mal pero ya tenemos otros ejemplos que también lo ofrecen. Lo llamativo de GPT-OSS-120b es que, utiliza un diseño tipo Mixture-of-Experts (MoE), que solo mantiene 5,1 mil millones activos durante la inferencia. Cada capa contiene 128 bloques especializados; un router interno que elige cuatro por token, haciendo que el consumo de memoria y computación se reduzca a niveles de un modelo denso mediano, pero guardando una base grande conocimiento.

Figura 3: MoE de DeepSeek

GPT-OSS-20b por otro lado, aplica la técnica a otra escala: 21 mil M totales, 3,6 mil M activos y una ventana de contexto de 128.000 tokens que le permite por ejemplo cargar novelas, manuales técnicos completos o repositorios de código enteros sin mucho esfuerzo. Y todo este potencial cabe en una RTX 4080 con 16 GB de VRAM y responde en segundos (luego lo veremos).

La arquitectura en detalle

Los dos modelos comparten treinta y seis (120b) y veinticuatro (20b) capas Transformer con atención alterna densa/dispersa y codificación posicional rotatoria (RoPE) extendida. El tokenizador o200k_harmony (que viene ya de los modelos propietarios de OpenAI) minimiza la longitud media de token y mantiene la estadística estable incluso cuando el contexto sube a 128 k


Para ahorrar aún más memoria, los pesos están almacenados en una mezcla de BF16, INT8 y un formato propietario de 4 bits (MXFP4). El resultado final es que GPT-OSS-120b puede ejecutarse por completo en una sola GPU H100 (eso sí, prepara algunos ) de 80 GB, algo que hasta ahora era impensable para un modelo de este tamaño.

Pensamiento a demanda

Una innovación que tenemos que destacar es el selector de profundidad de razonamiento. En el mensaje de sistema se indica Low, Medium o High. Con Low el modelo responde de forma directa, priorizando velocidad. Con Medium utiliza una parte de la cadena de pensamiento. Y con High realiza un proceso completo que puede incluir llamadas a un navegador o a un intérprete de Python para verificar datos en tiempo real. Ese digamos switch permite a GPT-OSS desde redactar un tuit en dos segundos o planificar un experimento científico paso a paso, todo según la necesidad del momento.

El repositorio openai/gpt-oss en GitHub trae scripts, plantillas de chat y ejemplos de integración con vLLM, LangChain y una CLI que emula ChatGPT en la terminal. Los checkpoints están en Hugging Face (incluidas versiones cuantizadas a 4 y 5 bits) y pueden cargarse con dos líneas de transformers. 
Y todavía más fácil, sin necesidad de programar, podemos usar Ollama y LM Studio que los podemos usar en minutos desde un chat. En un servidor con una única H100, GPT-OSS-120b genera entre doce y dieciocho tokens por segundo en precisión mixta. Y GPT-OSS-20b, en una RTX 4090, ronda los veinte tokens por segundo, algo más que decente para poder interactuar con los modelos.

Un paso adelante en potencia y transparencia open source

Aunque publicar los pesos no es lo mismo que publicar el dataset ni los parámetros de entrenamiento (OpenAI sigue guardando esos secretos), es una gran aportación al mundo. La disponibilidad de modelos de razonamiento avanzado bajo licencia realmente libre cambia las reglas de juego. Ahora podemos auditar sesgos examinando directamente las matrices, hacer inferencia y fine-tunning sin pagar por token, las startups pueden ofrecer productos basados en GPT-OSS sin temor a litigios de patentes, etc. 

Todo un avance que esperemos no sea el único y sirva de motivación para otras empresas para que empiecen a publicar modelos similares. Así que deja de jugar con tu gráfica y descarga ya el modelo de 20b ;)


Happy Hacking Hackers!!! 

Autor: Fran Ramírez, es investigador de seguridad y miembro del equipo de Ideas Locas en CDO en Telefónica, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps", también de "Machine Learning aplicado a la Ciberseguridad” además del blog CyberHades. Puedes contactar con Fran Ramirez en MyPublicInbox.

 Contactar con Fran Ramírez en MyPublicInbox

 Hackers!!

viernes, mayo 16, 2025

Usar Deep Reasoning en GitHub para buscar ( y parchear ) Bugs en proyectos Open Source

Fue allá por el año 2007 comencé a trabajar en las técnicas de LDAP Injection & Blind LDAP Injection que a la postre sería mi primera charla internacional en BlackHat Europe 2008, donde presenté el paper de "LDAP Injection & Blind LDAP Injection in Web Applications" que puedes ver online. En aquel entonces, busqué aplicaciones vulnerables que pudiera usar de ejemplo, y para ello tire de proyectos Open Source, haciendo dorkings y mucho Hacking con Buscadores para encontrar las víctimas propicias.

Figura 1: Usar Deep Reasoning en GitHub para buscar
( y parchear ) Bugs en proyectos Open Source

Una de ellas fue LABE (LDAP Address Book Editor) un aplicación web para tener una libreta de direcciones basada en un árbol LDAP. Por supuesto, vulnerable a las técnicas de LDAP Injection & Blind LDAP Injection.
Ayer, después de estar revisando un nuevo paper de cómo utilizar LLMs para hacer ataques de red - del que os hablaré muy prontito - me vino el pensamiento de sería mucho más fácil y más seguro si los repositorios de código fuente tuvieran ya metadatos de seguridad y bugs para todos los proyectos que hospedan analizados con modelos de Deep Reasoning.

Repositorios que te alertan de los bugs

Es decir, tú vas a un proyecto OpenSource en GitHub u otros, y el repositorio ha revisado ya todo el código y muestra a los usuarios que se los van a descargar si tiene vulnerabilidades conocidas o no, para que no te lo descargues o para que le llegue un aviso al mantenedor de que ese código debe ser actualizado o se marcará como inseguro. Y que le de con GenAI opciones de parchear el código automáticamente, como hace la plataforma Plexicus, que está empujando José Palanco.

Figura 4: Plexicus parchea con GenAI los bugs

Ahora mismo, los repositorios tienen secciones de "issues" donde se pueden reportar bugs, fallos, warnings, etcétera, pero todos hechos por "humanos" por ahora, y tal vez deberían estar ya aprovechando el mundo de los LLMs para mejorar la seguridad de los proyectos OpenSource de "long-tail" de manera masiva. Yo he ido a probar con el repositorio de LABE y le he pasado el código a Perplexity Pro con Deep Research, y le he pedido que busque bugs en uno de los ficheros del proyecto, y me diga cómo parchearlos.

Figura 5: Bug de LDAP Injection alertada en LABE

El primero de todos los bugs que reporta es el que ya conocía yo de LDAP Injection, pero el proyecto sigue están disponible para que más usuarios se lo descarguen sin ningún warning, y la lista de bugs es más larga.

Figura 6: LABE tiene bug de XSS persistente

Como podéis ver  en la imagen anterior, tiene un XSS persistente, pero a día de hoy cuenta también con funciones obsoletas, y acceso inseguro a variables globales como $_GET que además está obsoleta. Normal, este código tiene muchos años.

Figura 7: Más debilidades en el código de LABE

No se trata de "demonizar" LABE, sino de ver lo bien que lo hacen los modelos de Deep Reasoning para buscar debilidades y fortificaciones a un código Open Source en un repositorio, y que si lo hace el propio repositorio una vez, nos ahorramos hacerlo todos una y otra vez para ver qué nos estamos instalando.

Figura 8: CSRF y fallos de inicialización

No le he pasado todo el proyecto, sólo un fichero que ya tenía controlado con un LDAP Injection, pero como podéis ver en las imágenes ha salido también XSS, CSRF que son Client-Side Attacks, errores no controlados, variables sin inicializar, uso de funciones deprecadas, etcétera, lo que sería información muy valiosa que podría venir en los repositorios de código como GitHub y los gestores de paquetes.


También nos aparece un bug en la "cadena de suministro", ya que en el año 2024 se reportó un bug con severidad 7.3 en el framework de smarty que permite inyección de código, lo que demuestra que hay que tener un control constante de tus librerías para evitar estos peligros.

Análisis con DeepSeek Deep Think R1 

He querido probar con un repo de GitHub que también hace uso de búsquedas en árboles LDAP y que en este caso está escrito en C++, para ver cómo hace el análisis, y si GitHub podría hacer este análisis con su GitHub Copilot y dejar la info en forma de Warnings a los que se descargan el código.
Entiendo que poner issues de seguridad en los repos puede ayudar a los atacantes, pero es que los atacantes pueden hacer este trabajo, tener un 0day de un repo de long-tail y tener a GitHub entregando descargas a nuevas víctimas durante años.

Figura 11: Thinking de Deep Seek

Os ahorro las capturas del Prompt donde le paso el código del fichero que ves en la Figura 9 y le pido que busque bugs y me diga cómo corregirlos. Pero en la Figura 10 tenéis el Thinking que sí es interesante, pues en 19 segundos analiza el código y saca los resultados.

Figura 12: DeepSeek reporta un LDAP Injection

Como se puede ver, lo que reporta es  un LDAP Injection en primer lugar, ya que construye los filtros LDAP de las consultas sin ninguna sanitización, y eso se puede ver en el código como os dejo a continuación.

Figura 13: Construcción de filtros LDAP inseguros

Pero es que el análisis completo es bastante bueno, ya que sigue analizando el código y todas las implicaciones y las explica muy bien. Por ejemplo, cómo acceder con la inyección a atributos sensibles como passwords que pudieran existir en el árbol LDAP.

Figura 14: Explotación de LDAP Injection con manipulación de parámetros

En la siguiente imagen vemos cómo reporta también un problema de flujo de la lógica al no escapar los caracteres de control de LDAP que podrían cmabiar el comportamiento.

Figura 15: Escapado de caracteres de control

Y si seguimos viendo el informe, podemos ver cómo el tratamiento de errores no es seguro, permitiendo problemas en el funcionamiento del programa pero también Data Leaks de la estructura de la red al no haber controlado los errores de conexión al árbol LDAP.

Figura 16: Errores no controlados.

Para terminar aún nos da unas recomendaciones más que sensatas de seguridad añadidas que deberían ser tenidas en cuenta, como son estas dos, que yo las tendría en cuenta. Este código no lo conocía de antes, ni sabía si era vulnerable a LDAP Injection o no, y ni mucho menos del resto, pero si miráis en los issues, no hay nada de esto. 

Figura 17: Recomendaciones finales

Al final, desde hace años ya conocemos las capacidades de los LLMs para buscar bugs, esto es de lo primero que probamos, por supuesto. Así que si las usamos para fomentar que los proyectos OpenSource alerten a los usuarios que se los descargan, para que los repositorios de código incentiven a los mantenedores a parchearlos, o que lo hagan de forma automática ayudaría a reducir los bugs que acaban en los servidores de las víctimas.

PD: Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los posts, papers y charlas que he escrito, citado o impartido sobre este tema: Inteligencia Artificial (Hacking & Security): Links, Posts, Talks & Papers

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, mayo 01, 2025

MetaWorld Congress 2025 & OpenExpo Europe 2025: Mi agenda para el 7 y 8 de Mayo

Los días 7 y 8 de Mayo tiene lugar en Madrid (La NaveMetaworld Congress 2025, donde va a tener lugar OpenExpo Europe 2025 , y donde también estará la gente del IPv6 Spain Council. Además de una cantidad enorme de ponentes, actividades, demos, expositores, etcétera... donde compartiremos cartel Iker Jiménez, Pablo Gil Trader y yo. 

Yo estaré el día 7 de Mayo por la tarde con el equipo del IPv6 Security Council Spain, así que estaré con ellos en dos ratitos que me ha invitado el gran Carlos Ralli Ucendo. Ellos están trabajando en un paper de Seguridad IPv6 para CISOs que merece la pena que conozcáis.

15:30-16:15  Firechat “Un paper para unirnos a todos”  

Será una sesión en la que hablaremos de la propuesta que les hice el año pasado de trabajar en un paper sobre Ciberseguridad e IPv6 - aunque yo les propuse un libro -, pero en esta sesión vamos a contaros qué se está haciendo, cómo podéis colaborar, y los beneficios de este trabajo.

Figura 2: El paper del que se hablará en el IPv6 Security Council Madrid

16:15-17:00 Firechat-Coloquio “Entendiendo Shadow-IPv6 como viento a favor”

En esta sesión, cuatro ponentes hablaremos del Shadow IPv6 donde se hablará de la problemática de tener servicios, maquinas, empleados etcétera, que ya tienen IPv6 y no están coordinados, auditados a nivel corporativo, ni tan siquiera formados.  Estaré con Tony de la Fuente, que está centrado en su herramienta de OpenCloud Security Prowler y Federico Teti  que es arquitecto/CxO advisor de Zscaler en España

Luego tendré una sesión que daremos el gran Iker Jiménez y yo a medias, como la que he hicimos en otro OpenExpo Europe juntos. En este caso para hablar de la Inteligencia Artificial en el mundo Audiovisual, donde os contaremos cómo se está trabajando en el mundo de la producción televisiva con estas tecnologías.

Figura 3: Iker Jiménez y yo a la dubis en una charla

Será el día 7 de Mayo a las 18:30 por la tarde, y por supuesto será el gran Iker Jiménez quién lleve la voz cantante y yo solo será su ayudante, como siempre, que el maestro de la IA en la creación audiovisual es él, y yo solo un aprendiz.
Ya el día 8 de Mayo de 10:00 a 10:30 tendrá lugar mi charla dentro de OpenExpo Europe en la sesión de la mañana, así que yo estaré en la Keynote de apertura, hablando de Inteligencia Artificial y Hacking. Daré una charla que intentará explicar por qué estamos teniendo tantos problemas de seguridad, y por qué tenemos que acelerar la seguridad de estas tecnologías.
Después, estaré acompañando al resto de ponentes, y me pasaré por el stand de 0xWord a firmar libros, que tendremos nuevos libros allí disponibles para todos, y donde si quieres verme, me podrás ver. Después, ya me escaparé para ir al cocktail VIP, que tendremos a las 13:00 horas y donde nos veremos si tienes la entrada VIP de OpenExpo Para ello solo debes ir a la sección de Mis Tempos -> Canjear-> Vales para tiendas dentro de MyPublicInbox, y encontrarás los Códigos de OpenExpo Europe 2025. 
El precio de las entradas con esta promoción está ahora en 60 € el pase general y 300 € el pase VIP, así que si canjeas tus códigos ahora, ya te garantizas que tienes reservada la entrada. Ya por la tarde estaré libre, que tengo un compromiso en otro lugar, así que si no has venido a verme en alguno de los puntos que te he marcado el día 7 y el día 8, no esperes encontrarme por allí más. Nos vemos en OpenExpo Europe 2025 y Metaworld Congress 2025... así que hazte con tu entrada.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, abril 26, 2025

Bit2Me y DekaLabs en la OpenExpo Europe 2025: Bitcoin e IA revolucionando el mundo tecnológico global

El próximo mes 2025 se vivirá un acontecimiento clave para el sector tecnológico y cripto en España y a nivel global con la celebración de OpenExpo Europe 2025 que tendrá lugar en Metaworld Congress 2025, los días 7 y 8 de Mayo. Este evento, reconocido como uno de los más importantes en materia de innovación tecnológica, reunirá a referentes del mundo digital para compartir conocimientos, debatir tendencias y mostrar los avances que están redefiniendo nuestro futuro.

Figura 1: Bit2Me, y DekaLabs en la OpenExpo Europe 2025.
Bitcoin e IA revolucionando el mundo tecnológico global

Entre las tantas actividades que conforman la agenda, destacan dos charlas que prometen captar la atención de profesionales y entusiastas por igual. Bit2Me, la plataforma Blockchain y de Criptomonedas de mayor reconocimiento en España, y DekaLabs, un referente en el desarrollo de SmartsContracts, serán protagonistas de ponencias que abordarán temas punteros con gran impacto social y económico.

Propiedad privada, tecnología e IA

Bit2Me, impulsado en esta ocasión por Javier Pastor, Head of OTC de Bit2Me, presentará la conferencia titulada “Bitcoin, la mejor propiedad privada de la historia”. Esta charla invitará a los asistentes a reflexionar sobre cómo Bitcoin ha dado un giro radical al concepto tradicional de propiedad privada, pasando de lo estrictamente físico y controlado por terceros a un activo digital independiente, descentralizado y seguro. 

Figura 2:  Javier PastorHead of OTC en Bit2Me.

En esencia, Javier Pastor explicará por qué Bitcoin no solo es una moneda sino una revolución en la manera como protegemos y gestionamos nuestros bienes de valor, ejemplificando con casos reales su potencial disruptivo en la economía global.

Figura 3: Equipo de Bit2Me en su stand de OpenExpo Europe 2024

Paralelamente, DekaLabs tomará el micrófono de la mano de Fernando Pascual, ingeniero experto en Inteligencia Artificial y Blockchain, quien ofrecerá una exposición titulada “Optimiza o Muere: La Era de la IA y la Automatización Imparable.” 
En esta ponencia, se profundizará en cómo la IA ha dejado de ser una simple herramienta para convertirse en un motor decisivo que está transformando los procesos empresariales y tecnológicos en todos los niveles. Se resaltará la imperativa necesidad de adaptarse y evolucionar en un entorno digitalizado donde la automatización no es una opción, sino un requisito indispensable para sobrevivir y crecer.

Estas dos charlas no solo fundamentan el espíritu vanguardista de OpenExpo Europe 2025, sino que materializan la apuesta de Bit2Me y DekaLabs por compartir conocimiento valioso, generar debate y fomentar la innovación tecnológica responsable.

Nos vemos en OpenExpo Europe 2025  

Para todos los usuarios de MyPublicInbox, hay habilitados 30 códigos de Pase General y 3 de Pase VIP para OpenExpo Europe 2025  que se pueden adquirir con Tempos antes de que suban de precio. Para ello solo debes ir a la sección de Mis Tempos -> Canjear-> Vales para tiendas dentro de MyPublicInbox, y encontrarás los Códigos de OpenExpo Europe 2025.

El precio de las entradas con esta promoción está ahora en 60 € el pase general y 300 € el pase VIP, así que si canjeas tus códigos ahora, ya te garantizas que tienes reservada la entrada.
 
Te esperamos con ganas de celebrar, conectar y seguir trayendo al presente el futuro de la tecnología. Nos vemos en OpenExpo Europe 2025 y Metaworld Congress 2025.

jueves, enero 30, 2025

DeepSeek V3 con DeepThink R1: OpenSource & Eficiente (sin Search)

Hoy quería probar un rato DeepSeek V3 con DeepThink R1, que desde su irrupción con la estructura de costes y calidad que lo ha hecho ha revuelto el mundo de la Inteligencia Artificial, con los datos de eficiencia que aporta, y el impacto que tiene en las inversiones realizadas y anunciadas por empresas en este mundo.
El modelo es un modelo LLM OpenSource, y está publicado íntegramente en su repositorio de GitHub DeepSeek V3, donde cualquiera se puede descargar el código del modelo, junto con el paper, pero también te puedes descargar el modelo entrenado que está disponible en Hugging Face.
Esto permite que cualquiera lo pueda utilizar en sus sistemas y aplicaciones, lo que se espera que desarrolle un poco más, acelerando la adopción, el mundo de la IA en el que ya estamos inmersos de una manera imparable. Ahí, además, tienes a disposición el paper académico que explica cómo han entrenado el modelo para conseguir hacerlo por un coste de 5,5 M€, lo que sería un dato espectacular de reducción de la barrera de entrenamiento que suponían hasta el momento los costes de tener entrenado un LLM competitivo.
En el paper académico se explica todas las decisiones de optimización que han ido utilizando para conseguir hacerlo de manera tan eficiente, consumiendo muchas menos horas de entrenamiento, lo que abarata los costes de ese proceso. Pero claro, nada de eso serviría si se ha hecho a coste de reducir la calidad, para lo que con el paper publican los ratings en los benchmarks más utilizados comparándolos con GPT-4o y Claude 3.5 Sonnet, tal y como podéis ver en la tabla siguiente.
El modelo se ha entrenado utilizando entrenamiento por refuerzo, dejando de la lado la parte de entrenamiento supervisado con datos etiquetados, y con foco en que desde el principio fuera capaz de razonar las respuestas, algo que puedes ver con el DeepThink R1 si lo activas.
Como podéis ver, ante la pregunta anterior, primero dedica una fase de análisis de la pregunta haciendo una estructura de razonamiento que se convertirá después en el Prompt definitivo con el que el modelo construye la respuesta. 

Figura 6: Con el análisis del Prompt genera una respuesta

O lo que es lo mismo, es como si dado un Prompt Original utilizase primero un Prompt de Análisis del Prompt Original para después hacer Prompt Engineering al motor para generar la respuesta. Y así lo podéis ver en los ejemplos, donde te muestra el "razocinio" basado en el análisis del prompt.

Figura 7: Preguntado por Dirtytooh no tiene info

En el caso anterior intenta analizar Dirtytooth, pero no tiene información en sus datos de entrenamiento,  por lo que genera una respuesta fallida sobre la técnica.

Figura 8: Respuesta fallida sobre DirtyTooth

Con esta información, he intentado (varias veces), completar la información utilizando la búsqueda de Internet que permite usar también DeepSeek, pero no ha sido posible porque la alta demanda de uso del sistema.

Figura 9:La opción de Search estaba saturada

Haciéndole la misma pregunta a Perplexity Pro, con su conexión a Internet, sí que nos da la información correcta sobre DirtyTooth, lo que me hace suponer que cuando el Search de DeepSeek esté ok, probablemente funcione también.
En cuanto al modelo, por supuesto, sigue contando con sus alucinaciones, como podéis ver en este caso, donde le pregunto por "Un informático en el lado del mal". Primero, podéis ver el razonamiento de DeepThinking R1.

Figura 11: Razonamiento para preparar la respuesta

Y el resultado tiene muchas alucinaciones, como que nació en 2005, y ya sabéis vosotros que fue en 2006. Además, dice que soy un ex-CSO que no es correcto, o que soy el Chief Digital Consumer Officer, que es un cargo antiguo, pero además dice que es en Microsoft en lugar de en Telefónica.

Figura 12: Alucinaciones en la respuesta.

También lo he querido probar en su versión de app para iPhone, y el resultado es, similar. Hace primero un Prompt de Análisis del Prompt con el DeepThinking R1 y luego construye la respuesta de manera completa.

Figura 13: DeepThinking y Respuesta en DeepSeek

No voy a hablar mucho con los datos que se usaron para entrenar este modelo, que da para otros muchos artículos, pero me ha gustado la última frase de la respuesta anterior, que es chula. Solo por decirme cosas tan bonitas ya lo quiero más.

Figura 14: DeepSeek sobre Chema Alonso

Por supuesto, todos los problemas de Halluciantions, Prompt Injection, Jailbreak, y retos de seguridad que hemos visto en muchos artículos durante estos meses, así que habrá que probar un poco más a ver qué protecciones tiene implementadas.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares