Mostrando entradas con la etiqueta OpenSource. Mostrar todas las entradas
Mostrando entradas con la etiqueta OpenSource. Mostrar todas las entradas

viernes, agosto 08, 2025

El “Open” ha vuelto a OpenAI con sus nuevos modelos Open Source

OpenAI nació en 2015 con un mensaje muy potente: “hacer que la inteligencia artificial avanzada beneficie a toda la humanidad” y, sobre todo, que su investigación sería abierta. Aquel manifiesto llevó a muchos especialistas a colaborar con ellos y también provocó millones de dólares en donaciones. No era para menos, la idea de un laboratorio puntero en IA que compartiría cada avance era revolucionario. Pero claro, la realidad fue otra: GPT-2 llegó con pesos recortados, GPT-3 estaba detrás de una API de pago y de GPT-4 ya no sabemos nada desde el punto de vista técnico.

Figura 1: El “Open” ha vuelto a OpenAI con
sus nuevos modelos Open Source


Durante años la palabra open era sólo parte de su nombre, nada más. Pero por fin, el 6 de agosto de 2025 ocurrió algo que ya pensábamos que no pasaría: OpenAI liberó GPT-OSS-120b y GPT-OSS-20b, dos modelos de lenguaje completos, con pesos descargables y licencia Apache 2.0. No es la transparencia total prometida en 2015 (el conjunto de entrenamiento sigue bajo secreto), pero sí el paso más grande hacia el open desde su creación. 
Y, por la calidad de estos modelos, tal vez sea el más importante. Pero vamos a verlos en profundidad porque OpenAI ha publicado detalles muy interesantes de su funcionamiento interno. Y estos modelos son perfectos como base para aplicar lo que puedes aprender con nuestro libro de “Hacking & Pentesting con IA”.

Dos modelos muy potentes

La cifra de 120.000 millones de parámetros no está nada mal pero ya tenemos otros ejemplos que también lo ofrecen. Lo llamativo de GPT-OSS-120b es que, utiliza un diseño tipo Mixture-of-Experts (MoE), que solo mantiene 5,1 mil millones activos durante la inferencia. Cada capa contiene 128 bloques especializados; un router interno que elige cuatro por token, haciendo que el consumo de memoria y computación se reduzca a niveles de un modelo denso mediano, pero guardando una base grande conocimiento.

Figura 3: MoE de DeepSeek

GPT-OSS-20b por otro lado, aplica la técnica a otra escala: 21 mil M totales, 3,6 mil M activos y una ventana de contexto de 128.000 tokens que le permite por ejemplo cargar novelas, manuales técnicos completos o repositorios de código enteros sin mucho esfuerzo. Y todo este potencial cabe en una RTX 4080 con 16 GB de VRAM y responde en segundos (luego lo veremos).

La arquitectura en detalle

Los dos modelos comparten treinta y seis (120b) y veinticuatro (20b) capas Transformer con atención alterna densa/dispersa y codificación posicional rotatoria (RoPE) extendida. El tokenizador o200k_harmony (que viene ya de los modelos propietarios de OpenAI) minimiza la longitud media de token y mantiene la estadística estable incluso cuando el contexto sube a 128 k


Para ahorrar aún más memoria, los pesos están almacenados en una mezcla de BF16, INT8 y un formato propietario de 4 bits (MXFP4). El resultado final es que GPT-OSS-120b puede ejecutarse por completo en una sola GPU H100 (eso sí, prepara algunos ) de 80 GB, algo que hasta ahora era impensable para un modelo de este tamaño.

Pensamiento a demanda

Una innovación que tenemos que destacar es el selector de profundidad de razonamiento. En el mensaje de sistema se indica Low, Medium o High. Con Low el modelo responde de forma directa, priorizando velocidad. Con Medium utiliza una parte de la cadena de pensamiento. Y con High realiza un proceso completo que puede incluir llamadas a un navegador o a un intérprete de Python para verificar datos en tiempo real. Ese digamos switch permite a GPT-OSS desde redactar un tuit en dos segundos o planificar un experimento científico paso a paso, todo según la necesidad del momento.

El repositorio openai/gpt-oss en GitHub trae scripts, plantillas de chat y ejemplos de integración con vLLM, LangChain y una CLI que emula ChatGPT en la terminal. Los checkpoints están en Hugging Face (incluidas versiones cuantizadas a 4 y 5 bits) y pueden cargarse con dos líneas de transformers. 
Y todavía más fácil, sin necesidad de programar, podemos usar Ollama y LM Studio que los podemos usar en minutos desde un chat. En un servidor con una única H100, GPT-OSS-120b genera entre doce y dieciocho tokens por segundo en precisión mixta. Y GPT-OSS-20b, en una RTX 4090, ronda los veinte tokens por segundo, algo más que decente para poder interactuar con los modelos.

Un paso adelante en potencia y transparencia open source

Aunque publicar los pesos no es lo mismo que publicar el dataset ni los parámetros de entrenamiento (OpenAI sigue guardando esos secretos), es una gran aportación al mundo. La disponibilidad de modelos de razonamiento avanzado bajo licencia realmente libre cambia las reglas de juego. Ahora podemos auditar sesgos examinando directamente las matrices, hacer inferencia y fine-tunning sin pagar por token, las startups pueden ofrecer productos basados en GPT-OSS sin temor a litigios de patentes, etc. 

Todo un avance que esperemos no sea el único y sirva de motivación para otras empresas para que empiecen a publicar modelos similares. Así que deja de jugar con tu gráfica y descarga ya el modelo de 20b ;)


Happy Hacking Hackers!!! 

Autor: Fran Ramírez, es investigador de seguridad y miembro del equipo de Ideas Locas en CDO en Telefónica, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps", también de "Machine Learning aplicado a la Ciberseguridad” además del blog CyberHades. Puedes contactar con Fran Ramirez en MyPublicInbox.

 Contactar con Fran Ramírez en MyPublicInbox

 Hackers!!

domingo, mayo 25, 2025

Hacking Gitlab Duo: Remote Prompt Injection, Malicious Prompt Smuggling, Client-Side Attacks & Private Code Stealing.

Esta misma semana se ha publicado un trabajo de investigación sobre vulnerabilidades del GitLab Duo que es muy interesante por muchos aspectos, y por utilizar muchas de las técnicas de las que cada día hablamos más en el mundo del Hacking de Productos & Servicios hechos con IA. En este caso, los investigadores de Legit han demostrado cómo se podía utilizar GitLab Duo para atacar a otros usuarios con librerías infectadas y construir malware, para inyectar código malicioso en los resultados de GitLab Duo y para robar código privado, muy interesante técnicamente toda la investigación.
El artículo completo lo podéis leer en "Remote Prompt Injection in GitLab Duo Leads to Source Code Theft", y aquí tenéis una explicación del trabajo que os he resumido - y ampliado - para ver si soy capaz de explicarlo con claridad.
GitLab Duo es el asistente con IA de la plataforma GitLab que te ayuda a trabajar con tu repositorio de código, y que está disponible para todos los usuarios. Utiliza, por supuesto, una arquitectura de DeepReasoning, así que permite realizar tareas complejas, escribir código, puede manipular documentación, y para hacer bien el trabajo, cuenta con su Memory.

Para entender el ataque bien, os recomiendo que leáis antes el artículo de "GenAI Apps & Services: Cómo explotar arquitecturas RAG con Plugins Inseguros" porque tiene algunas similitudes en cuanto al ataque. En este artículo teníamos un servicio representado por ChatGPT, y le dábamos capacidades para hacer cosas sobre datos conectados (ficheros en One-Drive), y aplicaciones (enviar correos electrónicos). Si no había un entorno aislado multiusuario, un atacante podría ver los prompts de otro usuario, o los ficheros a los que tuviera acceso el modelo de IA, en ese caso, ChatGPT

Hacking Gitlab Duo:

En el ejemplo de GitLab Duo, el investigador hace un ataque de Prompt Injection que pone en el código fuente de un programa como un comentario, y con un simple "Explain this code" o hacer cualquier acción sobre ese código, se puede ver cómo GitLab Duo lo procesa.
Visto esto, para enviar estos ataques a otro usuario lo que hace es proponer un cambio en el un código de otro usuario, y en los comentarios introducir el Remote Prompt Injection, que en este caso inicial se trata de meter una librería de código maliciosa, por ejemplo, para robar los usuarios y contraseñas de un proceso de Login.
Cuando la víctima dueña del código solicite a GitLab Duo cualquier comando sobre el código que está visualizando del cambio propuesto, el Prompt Injection se ejecutará, y realizará un Memory Poisoning, dejando en la memoria que si en el futuro se solicita, por ejemplo, una página de Login, meta esa librería maliciosa. 
Para hacer este ataque mucho más invisible para la víctima, el atacante hace uso de técnicas de Prompt Smuggling para saltar los posibles guardarraíles del modelo usando trucos como los vistos en el artículo "Cómo saltarse los AI Guardrails con Invisible Characters & Adversarial Prompts para hacer Prompt Injection & Jailbreak Smuggling" , además de para hacer menos visible el Prompt en el código y el panel que pueda ver la víctima.

Como se puede ver en la imagen anterior, en la parte de Changes queda en color blanco (codificado en KaTeX), y además queda en Unicode usando codificación Base16 para meter los Prompts Maliciosos.

En este caso la demo la hace directamente con la petición del Login, así que la infección de la Memory no tiene que esperar a la petición futura.

Ahora, si vemos el proceso completo de GitLab Duo, se puede ver cómo ha inyectado la librería maliciosa, y cada vez que procesa el usuario y la contraseña llama a la función de esta librería que puede robar las cuentas tranquilamente.
Una vez que se ha completado este ataque, es posible imaginar muchos otros ejemplos. Por ejemplo pedirle que en la respuesta GitLab Duo muestre un enlace que la víctima pueda hacer clic para llevarle a una infección. 

Y por supuesto, cuando llegue la ejecución del Prompt en el GitLab Duo de la víctima, se producirá esa respuesta que se ha solicitado, tal y como se ve en la imagen siguiente.
Una vez visto este comportamiento, se pueden reproducir todos los ataques Client-Site en Web Applications, ya que tenemos un servidor - el de GitLab - desde el que enviar código a una víctima - desde Prompt inyectado -.
El siguiente ejemplo fue hacer HTML Injection y realizar ataques de Cross-Site Scripting (XSS), en este ejemplo para "Rickrollear" un poco.
Com se muestra en la imagen siguiente, este ataque también funcionó, por lo que se ha utilizado el modelo LLM como forma de atacar a otros clientes.
La última de las PoCs es para robar el código fuente de un programa de otro usuario que está en PRIVADO. En este caso aprovecha que GitLab Duo puede usar la herramienta merge_request_reader que tiene acceso a todos los códigos - públicos y privados -, así que con este Prompt se le pide que meta el código en un parámetro en Base64 como parte de un enlace.

Figura 16: Prompt para robar código privado

Al final, usando este ataque Remote Prompt Injection se solicita a GitLab Duo que use una herramienta que tiene conectada al modelo -  y que le da permisos para acceder a datos privados - que explique un merge_request privado, y que pinte la salida como parámetro de un enlace. 

Figura 17: Enlace malicioso con el código fuente robado

Para poder hacer este ataque, ha sido necesito meter el Remote Prompt Injection en una petición de cambio enviada a un código de la víctima, utilizando las técnicas de ASCII & Malicious Prompt Smuggling. Después, cuando al víctima ha pedido cualquier comando a GitLab Duo, el Malicious Prompt se ha ejecutado y se ha creado un enlace malicioso con el código fuente del programa a robar como parámetro. Cuando la víctima hace clic en él se envía el GET Request con el código fuente en la URL al servidor controlado por el atacante.


Reflexión final

El mundo de la Inteligencia Artificial a las profesiones de cibeseguridad nos ha abierto tres nuevas disciplinas en las que tenemos que trabajar. La primera es la de utilizar los nuevos modelos de IA para hacer ataques en los procesos de Pentesting, Ethical Hacking o Red Team. La segunda disciplina es utilizar la IA como forma de aumentar las capacidades de los equipos de seguridad, para automatizar tareas en el SOC, procesos de patching por IA, detección de anomalías, forensics, y cualquier proceso del Blue Team y los equipos de CERT & CSIRT
Por último, lo que vemos aquí es un ejemplo de la disciplina de aprender a atacar las nueva arquitecturas basadas en modelos de IA, Agentic AI, etcétera, que es lo que recoge el OWASP Top 10 de Productos & Servicios basados en LLMs. Un campo completo para el que aprender a diseñar nuevos ataques, basados en Prompt Injection, Jailbreak, Memory Poisoning, Malicious Prompt Smuggling, Guardrails Bypass, Data Poisoning, etcetera. Todos los problemas vistos en el artículo de hoy, el equipo de GitLab ya los parcheó, que se hizo un reporte responsable, pero son un ejemplo perfecto del tipo de ataques al que nos vamos a enfrentar hoy en día. Entretenidísimos vamos a estar.

PD: Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los posts, papers y charlas que he escrito, citado o impartido sobre este tema: Inteligencia Artificial (Hacking & Security): Links, Posts, Talks & Papers

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, marzo 26, 2025

Metaworld Congress 2025 hospedará OpenExpo Europe 2025

Como habéis podido leer, Metaworld Congress 2025 va a cuidar a partir de ahora de OpenExpo Europe 2025 que lo ha adquirido como forma de aumentar su velocidad de crecimiento e impacto en el sector, así que el equipo que ayudamos a que esta feria/conferencia crezca año a año, vamos a trabajar junto a ellos para hacer que el evento sea aún mayor, con más experiencias, con más ponentes, con más networking, con más empresas colaborando allí.


Además, esto va a permitir que en lugar de un evento de un sólo día como era hasta ahora OpenExpo Europe 2025, pasemos a disfrutar de dos días de tecnología a tope en la ciudad de Madrid, los días 7 y 8 de Mayo de este año. El Metaworld Congress 2025 reunirá a los principales actores de la inteligencia artificial, la tecnología XR y la Web3, la ciberseguridad y el marketing digital, entre otras tecnologías, consolidándose como la cita de referencia para explorar el presente y el futuro digital y sus aplicaciones en las diferentes industrias.

Con la presencia de compañías de diferentes sectores (legal, deportes, fondos de inversión, etcétera.) startups y expertos tiene, por una parte, un fin divulgativo sobre como la tecnológica ayuda a las empresas, pero también ofrece unas experiencias únicas que esta edición se refuerzan con la adquisición por la organización de OpenExpo Europe, iniciativa que, a lo largo de doce años, ha sido el punto de referencia en innovación tecnológica, transformación digital, open source e inteligencia artificial. Con una agenda repleta de conferencias, paneles y experiencias inmersivas, más de 300, los asistentes tendrán la oportunidad de descubrir las últimas tendencias en realidad extendida, blockchain, inteligencia artificial generativa y redes descentralizadas.


Por supuesto, yo daré una ponencia, donde como todos los años, espero llevar algo nuevo, que para ese día siempre intento guardarme algo diferente, ya que le tengo mucho cariño a OpenExpo Europe - ahora parte de Metaworld Congress -. Pero no será el único año que haré eso, ya que yo seguiré siendo parte del equipo que colabora con Metaworld Congress en ediciones futuras, así que estamos hablando de un proyecto para hacer que esta feria coja más fuerza año tras año en nuestra región.

Como novedades esta edición, el Metaworld Congress 2025, además de OpenExpo Europe 2025, acogerá en uno de sus tres domos la primera edición del Virtual Sports Summit; el punto de encuentro definitivo donde el deporte y la tecnología convergen para dar forma al futuro. Un evento único que reúne a líderes de la industria, deportistas, desarrolladores, marcas y expertos en innovación para explorar las infinitas posibilidades de la tecnología aplicada al deporte.


"El Metaworld Congress es mucho más que un evento tecnológico: es un ecosistema donde la innovación cobra vida, donde el networking genera oportunidades reales de negocio y donde se construyen los pilares de la nueva era digital. Además, con la adquisición de OpenExpo Europe y la integración de Virtual Sports Summit, el evento es totalmente diferente a todo lo hecho hasta la fecha” ha afirmado Davo Ruiz, CEO del Metaworld Congress.

Networking y áreas de expansión. Los organizadores del evento quieren que los visitantes encuentren, además de conocimientos y productos, un espacio para hacer contactos y fomentar las relaciones humanas por lo que habrá una zona gastronómica y actividades y áreas que faciliten el networking entre los visitantes. El Metaworld Congress cuenta además con el respaldo del Ayuntamiento de Madrid en su compromiso de convertir la capital en un polo de atracción de empresas e inversores de tecnología.

SOBRE METAWORLD CONGRESS

El Metaworld Congress es el evento de referencia de habla hispana en España y Latinoamérica sobre inteligencia artificial, Web3 y XR & VR. Celebra sus ediciones intercaladas entre México y Madrid posicionándose como el evento de habla hispana más importante de estas temáticas. El Metaworld Congress, en tan sólo dos ediciones ha logrado un gran impacto y alcance. Su propuesta única combina conferencias magistrales, paneles de expertos, experiencias inmersivas y exhibiciones tecnológicas, atrayendo a miles de asistentes y conectando a los principales actores del sector con nuevas oportunidades de negocio.


Desde su comienzo en Madrid, el Metaworld Congres ha reunido a algunas de las empresas y figuras más influyentes del ecosistema digital, consolidándose como un foro clave para la exploración y el debate sobre realidad virtual y aumentada, blockchain, NFTs, IA generativa y nuevas economías digitales. La edición celebrada en México marcó un hito en la expansión internacional del congreso, acercando las últimas tendencias tecnológicas a la comunidad hispanoamericana y fortaleciendo el intercambio global de conocimiento y experiencias.

Un hub de innovación y oportunidades

El Metaworld Congress no sólo es un escaparate de las tecnologías más disruptivas, sino también una plataforma estratégica donde empresas y profesionales pueden conectar, aprender y explorar nuevas oportunidades de crecimiento. Con cada edición, el evento amplía su alcance, incorporando nuevas temáticas, speakers de renombre y experiencias interactivas que reflejan el dinamismo de la industria.


Consolidado como un referente en el sector, el Metaworld Congress sigue evolucionando para ofrecer un espacio de vanguardia, colaborativo y orientado al futuro, en el que la innovación digital se convierte en una experiencia tangible y accesible para todos. Han pasado por ediciones anteriores Iker Jiménez, Marc Vidal, Javier Sirvent, entre muchos otros ponentes de nivel.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, enero 30, 2025

DeepSeek V3 con DeepThink R1: OpenSource & Eficiente (sin Search)

Hoy quería probar un rato DeepSeek V3 con DeepThink R1, que desde su irrupción con la estructura de costes y calidad que lo ha hecho ha revuelto el mundo de la Inteligencia Artificial, con los datos de eficiencia que aporta, y el impacto que tiene en las inversiones realizadas y anunciadas por empresas en este mundo.
El modelo es un modelo LLM OpenSource, y está publicado íntegramente en su repositorio de GitHub DeepSeek V3, donde cualquiera se puede descargar el código del modelo, junto con el paper, pero también te puedes descargar el modelo entrenado que está disponible en Hugging Face.
Esto permite que cualquiera lo pueda utilizar en sus sistemas y aplicaciones, lo que se espera que desarrolle un poco más, acelerando la adopción, el mundo de la IA en el que ya estamos inmersos de una manera imparable. Ahí, además, tienes a disposición el paper académico que explica cómo han entrenado el modelo para conseguir hacerlo por un coste de 5,5 M€, lo que sería un dato espectacular de reducción de la barrera de entrenamiento que suponían hasta el momento los costes de tener entrenado un LLM competitivo.
En el paper académico se explica todas las decisiones de optimización que han ido utilizando para conseguir hacerlo de manera tan eficiente, consumiendo muchas menos horas de entrenamiento, lo que abarata los costes de ese proceso. Pero claro, nada de eso serviría si se ha hecho a coste de reducir la calidad, para lo que con el paper publican los ratings en los benchmarks más utilizados comparándolos con GPT-4o y Claude 3.5 Sonnet, tal y como podéis ver en la tabla siguiente.
El modelo se ha entrenado utilizando entrenamiento por refuerzo, dejando de la lado la parte de entrenamiento supervisado con datos etiquetados, y con foco en que desde el principio fuera capaz de razonar las respuestas, algo que puedes ver con el DeepThink R1 si lo activas.
Como podéis ver, ante la pregunta anterior, primero dedica una fase de análisis de la pregunta haciendo una estructura de razonamiento que se convertirá después en el Prompt definitivo con el que el modelo construye la respuesta. 

Figura 6: Con el análisis del Prompt genera una respuesta

O lo que es lo mismo, es como si dado un Prompt Original utilizase primero un Prompt de Análisis del Prompt Original para después hacer Prompt Engineering al motor para generar la respuesta. Y así lo podéis ver en los ejemplos, donde te muestra el "razocinio" basado en el análisis del prompt.

Figura 7: Preguntado por Dirtytooh no tiene info

En el caso anterior intenta analizar Dirtytooth, pero no tiene información en sus datos de entrenamiento,  por lo que genera una respuesta fallida sobre la técnica.

Figura 8: Respuesta fallida sobre DirtyTooth

Con esta información, he intentado (varias veces), completar la información utilizando la búsqueda de Internet que permite usar también DeepSeek, pero no ha sido posible porque la alta demanda de uso del sistema.

Figura 9:La opción de Search estaba saturada

Haciéndole la misma pregunta a Perplexity Pro, con su conexión a Internet, sí que nos da la información correcta sobre DirtyTooth, lo que me hace suponer que cuando el Search de DeepSeek esté ok, probablemente funcione también.
En cuanto al modelo, por supuesto, sigue contando con sus alucinaciones, como podéis ver en este caso, donde le pregunto por "Un informático en el lado del mal". Primero, podéis ver el razonamiento de DeepThinking R1.

Figura 11: Razonamiento para preparar la respuesta

Y el resultado tiene muchas alucinaciones, como que nació en 2005, y ya sabéis vosotros que fue en 2006. Además, dice que soy un ex-CSO que no es correcto, o que soy el Chief Digital Consumer Officer, que es un cargo antiguo, pero además dice que es en Microsoft en lugar de en Telefónica.

Figura 12: Alucinaciones en la respuesta.

También lo he querido probar en su versión de app para iPhone, y el resultado es, similar. Hace primero un Prompt de Análisis del Prompt con el DeepThinking R1 y luego construye la respuesta de manera completa.

Figura 13: DeepThinking y Respuesta en DeepSeek

No voy a hablar mucho con los datos que se usaron para entrenar este modelo, que da para otros muchos artículos, pero me ha gustado la última frase de la respuesta anterior, que es chula. Solo por decirme cosas tan bonitas ya lo quiero más.

Figura 14: DeepSeek sobre Chema Alonso

Por supuesto, todos los problemas de Halluciantions, Prompt Injection, Jailbreak, y retos de seguridad que hemos visto en muchos artículos durante estos meses, así que habrá que probar un poco más a ver qué protecciones tiene implementadas.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, marzo 30, 2024

OpenExpo Europe 2024: The Power of GenAI.

La Inteligencia Artificial Generativa o GenAI ha venido para quedarse y lo vamos a celebrar por todo lo grande en la 11ª Edición de OpenExpo Europe, el próximo día 13 de Junio, en La Nave (Madrid) y online. La cita más importante sobre GenAI, este año, es la gran cita tecnológica que significa el encuentro anual en OpenExpo Europe 2024 de los principales ponentes, expositores, emprendedor@s, empresas, líderes/sas y principales nombres de todos los ámbitos tecnológicos: Cloud, Ciberseguridad, Hardware, IoT, Plataformas Software, Conectividad, etcétera, y todo ello vitaminado con el poder de la GenIA.


¿Te lo vas a perder? ¡Seguro que no! Además de porque quieres y debes estar en el centro de la innovación, porque tienes muy fácil compartir la edición más esperada de OpenExpo Europe.

1.- Call For Volunteers

Si eres una persona interesada en aprender y te apetece vivir una experiencia única en el mundo de la organización y la gestión de eventos, te invitamos a que formes parte de nuestro equipo junto a todos los compañeros y compañeras. Puedes formar parte del equipo de voluntari@s de OpenExpo Europe 2024 con tres sencillos pasos:

1. Entra en tu cuenta de MyPublicInbox: Si no tienes, créala, es gratuita.

2. Consigue Tempos gratuitos con alguna de las campañas que tenemos activas: Queremos que sepas cómo funciona la plataforma de MyPublicInbox, que la usaremos durante la organización del evento.

3. Envíanos un mensaje a nuestro buzón público: Nos tienes en OpenExpo Europe en MyPublicInbox y debes escribirnos con tus datos para participar y te contactaremos para los próximos pasos. Es importante que nos hables de ti, que nos cuentes por qué quieres ser voluntari@ y que nos muestres lo mejor de ti.

Como voluntari@, obtendrás un Certificado de Colaboración en equipo de Gestión de Eventos y tendrás acceso privilegiado a la feria y congreso, donde podrás ver de primera mano cómo funciona un evento del tamaño y trascendencia de OpenExpo Europe 2024, con muchas salas en paralelo, más 70 de expositores, ponentes de primer nivel, entrevistas, actividades e invitados VIP.

2.- Conseguir tu Entrada para OpenExpo Europe 2024

Si no quieres perderte y dejar de disfrutar de la edición más esperada de OpenExpo Europe 2024 como asistente, te puedes beneficiar hasta el día 31 de Marzo (aún estás a tiempo) de un descuentazo que dejará tu pase a tan sólo 9,60 €. Sólo tienes que hacer clic aquí y no dejar que suba el precio, que será más alto el mes que viene. ¡No esperes!


Aquí mismo encontrarás las VIP, una experiencia inolvidable, por tan sólo 50 €, donde tendrás eventos exclusivos en grupos reducidos con ponentes y personalidades.


Si sólo puedes disfrutarlo online, tienes también la opción y el precio es de tan sólo 1€.


Por supuesto, para todos los que tengáis Tempos de MyPublicInbox, podéis conseguir vuestra entrada para OpenExpo Europe 2024 con ellos.

3.- Conseguir tu Entrada de OpenExpo Europe 2024 con Tempos de MyPublicInbox

Para ello, primero asegúrate de que tienes nuestra cuenta en tus contactos. El proceso es muy sencillo. Inicia sesión en tu cuenta de MyPublicInbox, y visita nuestro perfil de OpenExpo Europe en MyPublicInbox.
Después, con sólo transferir desde la opción de "Mis Tempos-> Transferir", enviarnos 300 Tempos, y tendrás tu entrada de OpenExpo Europe 2024 para la Feria y el Congreso.  

Y si la quieres Online, sólo deberás transferir un total de 50 Tempos para conseguir tu entrada para la edición de OpenExpo Europe 2024 del Congreso Online.


Los Tempos, se pueden conseguir total o parcialmente dentro de MyPublicInbox, por lo que si consigues 200 Tempos, y tuvieras que comprar 100 Tempos - por ejemplo -, la entrada te costaría 2.5 €, lo que sería un importante descuento.

4.- Startup Connector & Mentoring

Queremos, igualmente destacar, que si estas interesado/a en el mundo StartUp Connector & Mentoring, tienes la mejor oportunidad que encontrarás en una feria-congreso de este sector, que bajo los auspicios de Gemma Rubio llevan las principales voces del país a este área y espacio de OpenExpo Europe, junto a un plantel de lujo, del que debes formar parte en nuestro StartUp Connector & Mentoring.
Toda la información disponible en el siguiente enlace: StartUp Connector & Mentoring 2024.

5.- OpenHack Hackathon en OpenExpo Europe 2024

Como entramos en la recta final hacia esta edición, ya irás pudiendo consultar una agenda que está haciendo, de esta edición, la más esperada de OpenExpo Europe bajo el lema “The Power of GenAI”.  Y dentro de una agenda tan completa, también habrá tiempo para actividades más lúdicas que, sin embargo, también son una oportunidad de formación y networking mientras te diviertes.

Figura 10: OpenHack Hackathon - GenAI Edition

Un exponente de esto es el OpenHack Hackathon - GenAI Edition que invita a desarrolladores, innovadores y entusiastas de la tecnología a crear soluciones de AI para automatizar procesos empresariales de forma sostenible. Este evento busca innovaciones que combinen eficiencia, productividad y responsabilidad ambiental, ofreciendo una plataforma para colaborar en retos cruciales para el futuro sostenible del sector. Anímate y ponte en contacto con OpenExpo Europe para participar a esta fantástica experiencia y, si eres empresa seguro que te interesara patrocinar nuestro OpenHack especial IA.

6.- OpenAwards y Networking & Beers en OpenExpo Europe 2024   

Y recuerda que después de la espectacular agenda de conferencia y exhibidores que tendremos en OpenExpo Europe 2024, nuestro cierre será de Gala (antes del Networking & Beers) con la entrega de los Open Awards 2024.

Figura 11: OpenAwards 2024

Son los premios más prestigiosos de la comunidad que entregamos en OpenExpo Europe 2024, para los que te animamos a nominar aquí

Todos los premios se entregarán en la Gala final de OpenExpo Europe 2024. Aquí puedes ver la entrega de premios del año pasado.

    
Figura 13: Entrega de OpenAwards 2023

Entra y elige en cada categoría quién crees que merecen los premios más valorados en este ámbito. Ya tenemos a los primeros miembros del jurado, paro ahora quién propone a los candidatos y candidatas eres tú aquí:


Pues ya estamos encarando la recta final hacia la edición más esperada de OpenExpo Europe 2024. Permanece atento/a a nuestra web y seguiremos dándote cientos de razones para vernos allí.

Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares