El “Open” ha vuelto a OpenAI con sus nuevos modelos Open Source
Durante años la palabra open era sólo parte de su nombre, nada más. Pero por fin, el 6 de agosto de 2025 ocurrió algo que ya pensábamos que no pasaría: OpenAI liberó GPT-OSS-120b y GPT-OSS-20b, dos modelos de lenguaje completos, con pesos descargables y licencia Apache 2.0. No es la transparencia total prometida en 2015 (el conjunto de entrenamiento sigue bajo secreto), pero sí el paso más grande hacia el open desde su creación.
Dos modelos muy potentes
La cifra de 120.000 millones de parámetros no está nada mal pero ya tenemos otros ejemplos que también lo ofrecen. Lo llamativo de GPT-OSS-120b es que, utiliza un diseño tipo Mixture-of-Experts (MoE), que solo mantiene 5,1 mil millones activos durante la inferencia. Cada capa contiene 128 bloques especializados; un router interno que elige cuatro por token, haciendo que el consumo de memoria y computación se reduzca a niveles de un modelo denso mediano, pero guardando una base grande conocimiento.
GPT-OSS-20b por otro lado, aplica la técnica a otra escala: 21 mil M totales, 3,6 mil M activos y una ventana de contexto de 128.000 tokens que le permite por ejemplo cargar novelas, manuales técnicos completos o repositorios de código enteros sin mucho esfuerzo. Y todo este potencial cabe en una RTX 4080 con 16 GB de VRAM y responde en segundos (luego lo veremos).
La arquitectura en detalle
Los dos modelos comparten treinta y seis (120b) y veinticuatro (20b) capas Transformer con atención alterna densa/dispersa y codificación posicional rotatoria (RoPE) extendida. El tokenizador o200k_harmony (que viene ya de los modelos propietarios de OpenAI) minimiza la longitud media de token y mantiene la estadística estable incluso cuando el contexto sube a 128 k.
Pensamiento a demanda
Una innovación que tenemos que destacar es el selector de profundidad de razonamiento. En el mensaje de sistema se indica Low, Medium o High. Con Low el modelo responde de forma directa, priorizando velocidad. Con Medium utiliza una parte de la cadena de pensamiento. Y con High realiza un proceso completo que puede incluir llamadas a un navegador o a un intérprete de Python para verificar datos en tiempo real. Ese digamos switch permite a GPT-OSS desde redactar un tuit en dos segundos o planificar un experimento científico paso a paso, todo según la necesidad del momento.
El repositorio openai/gpt-oss en GitHub trae scripts, plantillas de chat y ejemplos de integración con vLLM, LangChain y una CLI que emula ChatGPT en la terminal. Los checkpoints están en Hugging Face (incluidas versiones cuantizadas a 4 y 5 bits) y pueden cargarse con dos líneas de transformers.
Un paso adelante en potencia y transparencia open source
Aunque publicar los pesos no es lo mismo que publicar el dataset ni los parámetros de entrenamiento (OpenAI sigue guardando esos secretos), es una gran aportación al mundo. La disponibilidad de modelos de razonamiento avanzado bajo licencia realmente libre cambia las reglas de juego. Ahora podemos auditar sesgos examinando directamente las matrices, hacer inferencia y fine-tunning sin pagar por token, las startups pueden ofrecer productos basados en GPT-OSS sin temor a litigios de patentes, etc.
Happy Hacking Hackers!!!
![]() |
Contactar con Fran Ramírez en MyPublicInbox |