Mostrando entradas con la etiqueta redes sociales. Mostrar todas las entradas
Mostrando entradas con la etiqueta redes sociales. Mostrar todas las entradas

lunes, agosto 25, 2025

Cómo investigar y hacer doxing con las sombras de una fotografía en la calle publicada en Instagram usando Google Earth Pro, ShadeMap, Google Street y ChatGPT

Dentro de una investigación de una fotografía, tal vez te interese saber dónde está hecha, o a qué hora se hizo. Cualquiera de esas dos informaciones puede requerir observar hasta el último detalle de la misma, los metadatos, letreros de tiendas, edificios, bocas de riego, postes de telefónica y, por supuesto, las sombras de los mismos en la calle.

Figura 1: Cómo investigar y hacer doxing con las sombras
de una fotografía en la calle publicada en Instagram usando
Google Earth Pro, ShadeMap, Google Street y ChatGPT

Para localizar un lugar, utilizar Google Street View suele ser una forma bastante sencilla donde, a partir de una simple foto de Instagram, se puede intentar buscar toda la información. Esto es parte de las disciplinas OSINT (Open Source Intelligence) que tantas veces han ayudado a resolver un caso.
En el caso de las fotografías de Instagram, hay dos puntos de información que son relevantes. El primero de ellos es la Localización de la fotografía. Normalmente no se publica la ubicación exacta de la fotografía, pero sí es común encontrarse con pueblos, ciudades, o lugares genéricos que pueden ayudar a acotar la búsqueda.

Figura 3: Muchas fotografías de Instagram llevan localización genérica.
Yo muy pocas veces hago uso de ese metadato. Pero....

Una vez que tengas el lugar genérico, por ejemplo Móstoles, son muchas las horas que te puedes pasar con Google Street View buscando las calles, y paseando a ver si alguna de esas se parece a la que se ve en la fotografía publicada en Instagram. Yo uso la versión de Google Street View que viene con Google Earth Pro que me resulta más cómoda y puedo llevarla a veces en entornos con conexión intermitente como el tren.

Figura 4: Google Street View en Google Earth Pro

Sin embargo, una cosa que puedes hacer para acotar la búsqueda, especialmente si no conoces el lugar es preguntarle a ChatGPT o Perplexity Pro que seguro que te ayudan. Por ejemplo, si en la calle se ven árboles, un bulevar o un centro de salud, puedes preguntarle y que te dé calles donde pasear.

Figura 5: Buscando un bulevar en Móstoles... o en cualquier otra ciudad.

Además, si hay detalles más finos, le puedes dar la información completa a ChatGPT o Perplexity que te va a ayudar a acotar la búsqueda para que des menos paseos, como ves en esta parte de la respuesta que nos da para este Prompt.

Figura 6: Acotando la búsqueda de la calle

Y una vez acotada, pues nos vamos a nuestro querido Google Street View, para comprobar si esta podría ser la respuesta a la información de la ubicación que estamos buscando. En este caso, nuestra mítica Avenida de Portugal, segmentada de la Nacional V hace muchos años.

Figura 7: Avenida de Portugal en Google Street View
con su bulevar, cera y árboles

Pero puede que nos encontremos con dudas, especialmente si queremos localizar una zona muy concreta de esa calle o una hora muy determinada, que son dos cosas totalmente diferentes. Para ello, en Instagram podemos extraer en primer lugar la hora de publicación. ¿Es la hora en la que se tomó la fotografía? Puede que sí o puede que no, pero si es que sí, va a ayudar mucho a acotar la ubicación.

Sacar la hora exacta de la publicación de una foto en Instagram

Este es un proceso muy sencillo. Basta con seleccionar la fecha de publicación de la fotografía, donde día el día del año, o cuánto hace que se publicó, y luego dar con el botón derecho para seleccionar la opción de Inspeccionar en Google Chrome.

Figura 8: Inspeccionar en Google Chrome la fecha
de publicación de una fotografía en Instagram

Esto nos llevará al código HTML, donde tenemos la etiqueta Time y el parámetro datetime. Allí verás la fecha y la hora exacta en formato ISO 8601 (por ejemplo, 2025-08-22T15:34:20.000Z), que normalmente está en UTC. Y si das con el botón derecho a la opción de Edit HTML podrás copiarlo

Figura 9: Hora exacta de publicación de una foto de Instagram

Una vez copiada, solo debes ver qué hora era exactamente. Puedes buscar la conversión correcta del formato, o decirle a Perplexity o ChatGPT que hagan el trabajo de convertirlo por ti. ¿Quién necesita un conversor cuando puede hacer Prompts?

Figura 10: Foto publicada a las 17:00 de la tarde en Instagram

Ya tenemos la hora en Instagram, ahora podes ir e investigar las sombras. Para eso necesitamos un mapa con la luz solar a cada día y hora, y para ello Google Earth Pro es perfecto. Primero debemos ir al menú de View y seleccionar la opción de Sun.

Figura 11: Activando la luz solar en los mapas 3D de Google Earth Pro

Una vez activado el "Sun" podemos ver la evolución de la luz solar en cada ubicación en todo el mundo, dependiendo del día y la hora que configures. En este vídeo se ve cómo puedes ir desplazándote por los horarios y ver cómo cambia la luz.

Figura 12: Luz solar por horas en Google Earth Pro

Una vez hecho esta configuración, puedes ir a la visión 3D del mapa, seleccionando un día y una hora exacta para poder ver las sombras en la forma correcta, lo que te va a ayudar a poder detectar si el sitio es el correcto o no. 

Figura 13: Configuración de Luz Solar a una determinada hora en Google Earth Pro

Es decir, primero lo compruebas en Google Street View y luego lo confirmas con las sombras incluidas en Google Earth Pro... o viceversa. Como podéis ver, se ven las sombras proyectadas de forma correcta a esa hora concreta.

Figura 14: 3D con Sombras en Google Earth Pro

En la visión 3D de Google Earth Pro ves la orientación de las sombras, pero el realismo no es igual que el de Google Street View. Allí son fotografías que puedes revisar, pero están tomadas a distintas horas y procesadas. Con la mezcla de las dos puedes investigar mejor la ubicación de una fotografía.
También lo puedes hacer con ShadeMap, como podéis ver aquí, que es otra buena alternativa. Esto te puede ayudar a saber a qué hora fue tomada una fotografía, si conoces el lugar, de forma muy ajustada, solo con ver la orientación y longitud de las sombras de los elementos que salen en ella.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, agosto 16, 2025

¿Está vivo el "sueño" del Metaverso? Second Life se apunta al formato GLB del Metaverse Standards Forum

Me vais a matar, soy María otra vez. ¡No es culpa mía que vaya todo tan rápido! Hoy os traigo novedades frescas sobre... Tachán tachán... ¡¡¡El Metaverso!!! ¿Ves? He dicho “Metaverso” y no se me han caído los ojos de sus cuencas ni nada.

Figura 1: ¿Está vivo el "sueño" del Metaverso?
Second Life se apunta al formato GLB del Metaverse Standard Forum

¿Te imaginas tener acceso fácil a realidades extendidas y mundos virtuales? ¿Tan fácil como ahora accedes a Internet desde el dispositivo que tengas a mano? ¿Y te imaginas estar compartiendo tus propias creaciones virtuales, igual de fácil que ahora compartes vídeos en TikTok o en reels? ¿Te ves participando en una nueva economía de creadores que forme parte de ti como el respirar? Pues puede que ese futuro se esté acercando... Y puede que no venga de donde crees.

Figura 2: Esa soy yo en Second Life, es mi bienamada avatar Irma.
 
Reto: si aciertas dónde surgió la idea para este artículo, te llevas un tontipunto. Pero no me hagas trampa, ¿eh? ¡Espera a leerlo hasta el final! Bueno, haz lo que te plazca XD

Primero, un poco de contexto

¿Te acuerdas de hace casi 4 años, en octubre de 2021, cuando Mark Zuckerberg nos contó en Connect su visión del Metaverso? Los que estamos en estas cosas lo entendimos normal, a la primera, sin problema. Pero por algún motivo que nunca comprendí, la idea fue procesada por el mundo en general al estilo Martes y 13 con Encarna de Noche y las empanadillas de Móstoles. Perdona porfa si no conoces la referencia, es humor español absurdo de los años 80.

Figura 3: vista en detalle, un avatar actual en Second Life (male).
 Imagínatelo, alta calidad gráfica y animaciones preciosas.

Empanadillas aparte, desde el anuncio de Zuckerberg muchísima gente nos pusimos a trabajar súper ilusionados, pensando en construir paso a paso un futuro que nunca antes había sido posible imaginar: un futuro de interoperabilidad. Una idea chula... Aunque confieso que siempre fui escéptica. Bueno, no siempre. Creo que fue en 2008 cuando perdí la fe del todo.

Interoperabilidad, ¿2021 era demasiado pronto?

¿A qué me refiero con interoperabilidad? A estándares. ¿Para qué? Para poder transitar por diferentes mundos o experiencias inmersivas, entrar, salir, saltar de una a otra... Siendo un único tú, un único usuario: un avatar, una agenda, una wallet. ¿Por deporte? No: por economía. ¡Ticling!

Figura 4: Second Life Marketplace, el equivalente en esta plataforma
a “Amazon”, donde vender y comprar de todo al instante.

Una vez superado el hype del anuncio de Zuckerberg (y con este sentido del humor tan sofisticado que se nos ha quedado, consistente en reírse entre dientes cada vez que alguien dice “Metaverso” como si fuera un chiste de pedos), parece que efectivamente el tiempo pone todo en su sitio y las plataformas de mundos virtuales, en su esfuerzo por mantenerse a flote, tienden a ir en la otra dirección: no hacia interoperabilidad (ciento volando), sino hacia “walled gardens” (pájaro en mano).

Figura 5: vista en detalle, un avatar actual en Second Life (female).
Si esta es su cara, no quieras imagiar su cuerpo, grrr... ¡Miau!” =^_^=
  
¿A qué me refiero con “walled gardens”? A lo que suena: economía cerrada. Por lo que observo, parece que cada plataforma se está plegando sobre sí misma, buscando una economía propia que le permita sobrevivir a corto. No digo que esté mal, Woz me libre, es sólo que el momento es así ahora. Posiblemente 2021 era pronto para interoperabilidad... Especialmente si hablamos de plataformas nuevas, que seguramente tengan que consolidarse muy mucho antes de pensar en romper fronteras.

El monstruo que acecha... Esperando su momento

Y sin embargo, no todas las plataformas de mundos virtuales son nuevas, ni mucho menos. Hay algún maromazo por ahí que a la chita callando lleva más de veinte años levantando un mundo paralelo bit a bit. Un mundo habitado, creado y sostenido por una comunidad súper pro y freak a morir. Un mundo con una economía consolidada, comprobada y curada en el tiempo. Un mundo sólido, viejo, fuerte, preparado para romper esa frontera en cuanto las nuevas capacidades de Internet lo permitan.

Figura 6: Philip Rosedale pilotando su avatar Philip Linden en SL.

Ya ves a quién me refiero... ¡Efectivamente! Es Philip Rosedale: el jefe súper supremo y fundador de Linden Lab, la empresa detrás de Second Life. Por si no le pones cara, te dejo este simpático vídeo de tres minutos y medio del World Economic Forum.


Podéis ponerme mil pegas: podéis decirme que Second Life es sólo para ordenador, que no funciona con gafas de VR, que no incluye experiencias AR, que ni siquiera se puede acceder mediante navegador porque sigue dependiendo de un viewer... Y es verdad. Tienes toda la razón. Y esa es precisamente la barrera que Second Life podría -hipotéticamente- estar en posición real de derribar, llegado el momento.

Como ya te conté en este artículo anterior, mientras las plataformas nuevas (las que empezaron su andadura después de la idea de Zuckerberg) se repliegan de momento hacia “walled gardens”, Second Life parece calentar motores. Primero con las pruebas en navegador mediante pixel streaming como te conté la otra vez. Y ahora... Atiende que voy:

Second Life está adoptando estándares (.glb)

El pasado viernes 8 de agosto, Second Life actualizó su viewer a la versión 7.2.0.16729091892 – 2025.05, con una feature de lo más interesante: permiten la importación de modelos .glb, uno de los estándares de objetos 3D que más se está utilizando en diferentes plataformas de mundos virtuales sociales.

Figura 8: A principios de agosto, Second Life ha dado un
primer paso para la adopción del estándar glTF.

Hasta ahora, para subir un modelo 3D a Second Life se necesitaba un editor 3D que permitiese la exportación en COLLADA (.dae), formato desarrollado inicialmetne por Sony Computer Entertainment y que ahora es gestionado por Khronos Group.

El formato COLLADA está basado en XML y es más utilizado en workflows de edición y transferencias entre software 3D clásico, no es muy rápido y a veces su peso es excesivo. El formato GLB, en cambio, es binario, más compacto, rápido, y especializado en XR y plataformas de Metaverso, aunque es menos editable, tiene soporte limitado para materiales avanzados y no todas sus extensiones son 100% compatibles para cualquier runtime.

Figura 9: Exportando glTF desde Unity, con KHR_Interactivity integrada.

Una de las extensiones que no están completamente soportadas es la de glTF interactivity, que además de geometría, materiales y animaciones, permite añadir interactividad a los objetos a través de Unity y visual scripting. ¿Os imagináis lo que significaría poder crear los comportamientos de un elemento 3D en un único entorno, y poder importarlo en casi cualquier plataforma de Metaverso? Yo sí XD! Porque me lo enseñó a principios de junio el gran Iker Jamardo de Google ;) Si te interesa, lo tienes muy a mano porque se trata de un plug-in del propio Khronos Group.

Llámame loca... Pero juzga por ti

Recapitulando: ¿son imaginaciones mías, o Second Life está adaptando los estándares que se están proponiendo desde el Metaverse Standards Forum? Lo digo porque los archivos .gltf (o .glb en su “traducción” a binario) se están planteando durante los últimos cuatro años como la base de la interoperabilidad de objetos entre mundos virtuales, con la posibilidad de incluirlos en escenas .USD, que albergarían diferentes objetos .glb dentro de ellas.

Si te suena a chino... ¡Dime qué dialecto XD! Me refiero a que la adopción del estándar glTF es sólo uno de los working groups en los que están trabajando desde el Metaverse Standards Forum donde hay muchas más líneas de trabajo abiertas. Si te interesa conocer más, aquí tienes el listado completo.

Figura 10: Tocando el ukelele con mi avatar Irma.
¿Ves mi cara de concentración?

Llámame loca (¡Loca! Graciasss) pero, ¿no parece que esto es medio paso más de Second Life hacia la interoperabilidad entre mundos virtuales? Y digo “medio” porque ahora mismo subir modelos .glb a SL todavía tiene limitaciones, como la necesidad de importar por separado el modelo y el material, y unirlos después dentro del editor de Second Life... Bueno, no pasa nada. La otra mitad del paso está a punto de completarse: no hay más que echar un vistazo a las contribuciones de la comunidad en GitHub o seguir las conversaciones en Discord, y ahí ya se ve que esta feature avanza rápido, ofreciendo cada vez más posibilidades.

Ideas perversas al alcance de todos

Llegados a este punto, supongo que llevas ya un rato pensando en ideas perversas con esa cabecita traviesa tuya, ¿a que sí? ¿A que estás pensando en herramientas de creación de modelos 3D con Inteligencia Artificial como Meshy o Tripo, que permiten la generación de modelos 3D a través de un prompt de texto y/o una imagen y su posterior descarga en formato .glb

Figura 11: Vista en detalle, accesorios para lengua en Second Life, impensables
(por varios motivos) en plataformas de mundos virtuales más recientes.

¿Eh, eh? ¿A que sí? ¡¡¡Pues claro que sí!!! Y Philip Rosedale y su equipo también, no te quepa duda. Lo que no sé es a qué esperas para probarlas, alma de kantarooz =^_^=

Pero esos avatares... ¿No son demasiado chulos?

En las imágenes que te he ido poniendo ya has visto que los avatares en Second Life son una pasada. ¡Y no es porque fueran así originalmente! Bajo la piel de cada avatar precioso que ves, hay un avatar básico de sistema recubierto por piezas 3D interactivas creadas por otros usuarios a lo largo del tiempo (User Generated Content). Para poder hacerte un avatar así, han tenido que pasar veinte años.

Figura 12: fíjate en la joyería tan intrincada que lleva este avatar.
Esta complejidad de geometría era impensable hace veinte años.

Durante estos veinte años, la comunidad de Second Life ha ido puliendo y perfeccionando métodos ingeniosos para hackear el avatar de sistema, añadiendo capas de creciente complejidad y belleza. Al mismo tiempo, Linden Lab no se ha quedado atrás y ha ido ampliando las capacidades de Second Life a la par que el propio Internet iba creciendo y madurando.

Hoy por hoy, armar tu avatar es un proceso absolutamente delicioso. Puedes comprar cada componente a tus artistas favoritos (cabeza, pelo, cuerpo, ropa, animaciones...) e ir ensamblándolo todo a tu gusto. Incluso puedes ser artista tú también y vender tus creaciones a los demás.

Figura 13: Bakers on Mesh (BOM)El viewer de Second Life “tuesta” todas las texturas
de tu avatar en una textura única, ahorrando recursos de render sin que tú tenga
 que hacer nada.¡Y puedes cambiar tu ropa, pelo accesorios... Siempre que quieras!
  
Pero espera... ¡Piensa un momento! ¿Y si en un futuro no demasiado lejano Second Life fuera un paso más allá y consiguiera adoptar el formato .vrm, que es el estándar por el que se están decantando en el Metaverse Standard Forum en cuanto a avatares y moda digital? ¿Y si pudieran hacerlo compatible con la creación de avatares por piezas? No sería la primera vez que Second Life ingenia algo así: mira si quieres cómo se lo montaron para mapear todas las texturas del avatar en un solo atlas, sin que el usuario sea consciente de ello. La solución se llama “Bakes On Mesh” (BOM) y es brillante.

En la línea de fuego

Cada día estoy más convencida de que los veinte años de ventaja que tiene adelantados Second Life respecto al mercado la colocan en la línea de vanguardia para romper la barrera de la interoperabilidad, en cuanto las nuevas capacidades de Internet y los nuevos dispositivos lo hagan posible. Y te digo por qué.

El hecho de que Second Life esté abriendo su runtime a otros formatos de modelos 3D más allá de COLLADA, concretamente estándares como .glb, para mí es una declaración de intenciones. Si Philip Rosedale, que ha conseguido mantener su plataforma de Metaverso abierta durante más de 20 años (a base de ofrecer a los usuarios lo que le estaban pidiendo), se está colocando en la línea de fuego de esas nuevas fronteras... ¿Qué más no tendrá en mente?

Figura 14: Warning! Irma sigue observando.

Se lo dije a Iker Jamardo cuando estuvo aquí, os lo digo a todos: atentos a Philip Rosedale que es un pieza el figura. Y ¿quién sabe si ahí donde lo ves, tal vez se esté preparando para liderar la revolución cyberpunk? XD Yo por mi parte no le pienso perder ojo. Sin duda va a resultar muy interesante seguir sus movimientos ;)

Saludos bue... ¡Ay, espera!

¿Recuerdas el reto del principio? Te había prometido un tontipunto si acertabas dónde surgió la idea para este artículo. Pues... ¡Efectivamente! Surgió en el chat público de este blog, El lado del mal, en MyPublicInbox. Fue durante una conversación con mi querido Ángel Soto (Anso) sobre NotebookLM...



¿Acertaste? ¿Sí? Genial: ¡tontipunto para ti! Ya sabes adónde venir a canjearlo por un “hola qué tal”: a mi buzón en MyPublicInbox, o al chat público de El lado del mal ;)

Ahora sí... ¡Saludos buenignos!

jueves, julio 24, 2025

Grok y los usuarios que más interacción tienen con tu cuenta de Twitter... o llámalo X

Ha estado esta semana circulando una respuesta por la que supuestamente Grok el Asistente de Inteligencia Artificial de Twitter  de X, te daba la lista de las 10 cuentas que más ven tu perfil. El detalle es sutil y significativo, porque al final no es esa la información que da, sino sobre las que más interactúan con tu cuenta, que es diferente.

Figura 1: Grok y los usuarios que más interacción
tienen con tu cuenta de Twitter... o llámalo X

Que un modelo como Grok tuviera un leak de información no sería raro. Haciendo técnicas de Prompt Injection ha sido posible saltarse los Guardrails y el Harmful Mode de muchos modelos, y hemos visto el System Prompt de DeepSeek, o bugs de privacidad leakeadndo API Keys a GitHub, Amazon Whisper o Llama Code. Así que había que entender qué estaba sacando directamente en esa lista que podría ser un leak o una mala interpretación de los resultados. De todas estas cosas hablé en esta charla.


Figura 2: Creando una IA... ¿Qué puede salir mal?

Si miráis en el ejemplo que hemos hecho con la cuenta oficial de Cálico Electrónico en Twitter/X, se puede ver que te hace una lista con el número de visitas mensuales media, y me parece una salvajada que, por ejemplo, Nikotxan - papá y creador de Cálico Electrónico - que lo quiere mucho, tenga 30 visitas al mes de media.  ¿Por qué os digo esto? Pues ahora os lo explico.

Os he dicho que me parece una salvajada, pero me lo parece porque ... ¿de dónde saca los datos? Preguntando lo mismo con la cuenta de 0xWord, lo que obtenemos es que realmente no tiene acceso a estos datos, y que usa como aproximación el número de interacciones.
Los datos de las interacciones son algo que la persona puede ver en sus tweets. Sin necesidad de tener una cuenta Premium (donde tienes muchas más estadísticas) se puede saber el número de comentarios y quién comenta, el número de visitas al post, el número y quién te ha dado Like, el número y quien a hecho un ReTweet o RePost,  el número de cuánta gente lo ha Guardado, y el número de cuánta gente ha hecho un Quote+ReTweet, y con esto puedes sacar la información del engagement de tus usuarios.
Saber quién en concreto ha hecho la acción de CommentLike, RePost o Quote-RePost es privado, y solo lo puede ver el dueño de la cuenta pero.... no nos engañemos, los Posts y los Quote-Repost son información pública que se puede sacar con las opciones de búsqueda correctas de Twitter/X
Al final, quedan visibles en el perfil de la cuenta que ha hecho el RePost o el Quote-RePost. Saber quién ha hecho Like a un Post del Tweet/Post de otro ya no lo tengo tan claro si se puede ver fácil, pero desde luego hay datos suficientes para poder hacer públicamente una inferencia de interacciones.

Figura 7: Si eres el dueño del tweet puedes ver quién
ha hecho Quote-RePost (Citas), RePost o Like

Con todos estos datos, las herramientas profesionales de Twitter/X hacen estadísticas muy valiosas para los equipos de marketing, que ayudan a medir los resultados de sus campañas. Visto esto, la pregunta inicial a Grok sobre Cálico Electrónico de la Figura 3, calcular 30 interacciones para una cuenta es muy alto, así que debe ser una inferencia que ... habrá salido bien, o habrá salido mal. 

¿Quién visita tu perfil?

Sin embargo, la preocupación era que te pudiera dar un dato que en la Figura 3 se le ha pedido, que es quién visita mi perfil. Este dato, que obviamente tiene Twitter/X y que utiliza para los algoritmos de Machine Learning de recomendación de follow, lo diera, tendríamos acceso a un dato que ahora no se tiene.  

Figura 8: Libro de Machine Learning aplicado a Ciberseguridad de
Carmen TorranoFran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

Alguien que visita tu perfil pero que no interactúe, podría pasar desapercibido tal y como está ahora, pero si te diera Grok lo que se pide "¿Quién visita mi perfil?" sería un leak bueno. 

Figura 9: En Linkedin se puede ver quién ha visto tu perfil

Linkedin sí que da ese dato , y se puedoe saber quién ha visto tu perfil, que es algo muy común. La única diferencia es que en Linkedin se conoce que se puede sacar este dato, y en Twitter/X no es posible a día de hoy. 

Figura 10: Preguntando internamente.

Probando internamente con Grok 3, desde una cuenta Premium, es decir, sin usar la versión de asistente de Time-Line, el resultado es que no me daba nada de nada de datos. No he podido probar con Grok 4, que no lo tengo, pero si alguno de vosotros lo tiene y lo prueba, encantado de que me compartáis los resultados. En definitiva, visto hasta aquí, no hay más que una aproximación por interacción con una estimación, así que no leak

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, abril 09, 2025

3DAIS: Tu oficina en Internet gestionada por tu Avatar VRM Powered by AI

Chema Alonso ya tiene su 3DAIS, y no es casualidad. Esta nueva tecnología está pensada justo para perfiles como el suyo: personas que tienen mucho que contar, una comunidad que les sigue de cerca, y un universo de contenido distribuido por toda la red. Pero ¿qué es exactamente 3DAIS? ¿Por qué puede ser el siguiente paso natural para quien ya ha pasado por blogs, redes sociales, web personal, Twitch, Discord y lo que venga? Vamos a ello.


¿Qué es 3DAIS? 3DAIS son las siglas de 3D Avatar Interactive Space, y su objetivo es tan simple como ambicioso: transformar la forma en que nos presentamos en Internet. En lugar de una web estática o una lista de enlaces tipo Linktree, 3DAIS ofrece un entorno 3D personalizado donde el protagonista eres tú, representado por un avatar que no solo se parece a ti, sino que también habla como tú y responde por ti.


Sí, has leído bien: un avatar con IA, entrenado con tu información, tu tono, tus enlaces, tus proyectos… y que actúa como anfitrión virtual para cualquier persona que entre en tu espacio.

Así funciona el 3DAIS de Chema Alonso

El 3DAIS de Chema Alonso es una mezcla de oficina cibernética, cápsula retro-futurista y portal de contenidos. Desde su 3DAIS, cualquier visitante puede explorar contenidos destacados, revisar publicaciones, acceder a vídeos y navegar por los distintos enlaces que Chema Alonso comparte públicamente, como los de su perfil en MyPublicInbox. Desde allí, se puede contactar con él, enviarle un mensaje o acceder a otras vías de comunicación directa, todo desde un entorno visual e inmersivo.

Figura 3: Espacio 3DAIS de Chema Alonso

Para el resto de usuarios, 3DAIS incluye la opción de activar un chat atendido por su propio avatar con inteligencia artificial, que puede responder preguntas frecuentes, explicar proyectos, compartir enlaces o incluso agendar reuniones. Esta función convierte al avatar en un verdadero asistente virtual disponible las 24 horas, mejorando la interacción con los visitantes y ofreciendo una experiencia mucho más cercana y personalizada.


El entorno está diseñado al milímetro con elementos interactivos, y todo responde a una lógica de exploración más que de consumo. Ya no es solo “haz clic aquí”, sino “mira esto, descubre aquello, habla con el avatar”. Una experiencia inmersiva que condensa su identidad digital en un único punto de entrada.

¿Por qué 3DAIS es diferente?

Las herramientas que usamos para presentarnos online llevan años estancadas. Páginas personales, blogs, perfiles sociales… Todo muy plano, muy limitado, muy de scroll y clic. 3DAIS rompe con ese modelo proponiendo algo mucho más cercano a un espacio virtual interactivo, donde cada persona tiene su habitación, su avatar y su forma única de conectar con el mundo.


Estas son algunas de sus claves:
  • Tu avatar, potenciado por IA: responde como tú, cuenta tus proyectos, guía a los visitantes.
  • Entorno 3D personalizable: no hay dos iguales. Puedes decorarlo, añadir vídeos, PDFs, enlaces, audios o lo que quieras.
  • Accesible desde cualquier navegador, sin necesidad de instalar nada.
  • Experiencia inmersiva: el visitante no solo “navega”, sino que explora, pregunta, descubre.
Casos de uso reales

Aunque Chema Alonso ya tiene el suyo, 3DAIS no está pensado solo para figuras públicas. Es una herramienta que ya están empezando a usar:
  • Creadores de contenido e influencers: como una versión evolucionada de su link-in-bio, donde pueden mostrar contenido exclusivo, conectar con fans o vender directamente.
  • Profesionales tech o freelance: como tarjeta de presentación viva, con portfolio, calendario y contacto.
  • Artistas, músicos o diseñadores: como galería interactiva y escaparate multimedia.
El futuro del yo digital

3DAIS propone una idea que puede parecer sencilla pero que apunta muy lejos: no limitarse a mostrar quién eres, sino crear un espacio donde “estar”. Donde tu identidad digital no sea solo un conjunto de links o un muro de texto, sino una experiencia inmersiva con la que cualquiera pueda interactuar, entenderte y recordarte.

Figura 9: Crea tu propio 3DAIS

Y si has llegado hasta aquí, la pregunta lógica es ¿y si tú también tuvieras tu propio 3DAIS? 👉 Puedes solicitar acceso en: https://unionavatars.com/3dais

martes, abril 01, 2025

Pixel Streaming: el Metaverso en tu navegador vía Streaming

Estaba trasteando con mis cosas cuando me dio por pensar en cómo los mundos virtuales se están moviendo cada vez más al navegador. Y no, hoy no me refiero a temas de Web3, Identidad Digital, Smart Contracts o Blockchain. Dejemos eso para otro día. Hoy toca hablar de algo más visual: la interoperabilidad de los mundos virtuales sociales y cómo se están rompiendo fronteras.
 
Figura 1: Pixel Streaming - El Metaverso en tu navegador vía Streaming

Antes de comenzar, déjame decirte que la imagen anterior está generada en Perchance.org, rotulada en Photoshop y reescalada en Ai.Nero, por si te lo estabas preguntado. Ahora vamos con el artículo de hoy, no te pierdas.

Second Life en navegador y en móviles

Los viejos rockeros nunca mueren, y Second Life es la prueba de ello. Aunque muchos lo daban por muerto desde hace años, la plataforma sigue viva y coleando, y en 2025 ha dado un paso clave: ahora permite probar durante una hora su versión en navegador.

Second Life no es el primero en abrir la puerta del navegador, ya lo hizo Horizon Worlds en julio de 2024, pero aquí la gracia está en que Second Life es mucho más complejo. ¿Cómo demonios consiguen meter ese mundo de geometría loca, economía virtual y anatomía rebotante en un simple Google Chrome, Firefox o lo que uses para navegar? Pues con Pixel Streaming.


Básicamente, en vez de pedirle a tu ordenador que sufra renderizando todo, lo ves por streaming desde servidores tochos. Salvando las distancias, es como si pilotaras un submarino mirando por un periscopio 100% inmersivo. El coste de este modo de navegación vía Pixel Streaming todavía es alto, por eso lo están limitando a pruebas de una hora, pero funciona. Ah, y también en móviles. No está mal para un abuelo del metaverso.

Daz3D ahora exporta avatares para Roblox

Si alguna vez has trasteado con Daz3D, sabes que es una herramienta potente para crear modelos 3D ultra realistas. Hasta ahora, la cosa se quedaba en renders bonitos o en exportaciones para videojuegos y animación, pero desde febrero de 2025, han dado un paso interesante: permitir la exportación de avatares para Roblox.

Desde el 20 de febrero de 2025
  
Sí, Roblox, esa plataforma donde a veces los gráficos parecen salidos de una pesadilla de Minecraft, ahora puede tener personajes de alto nivel de detalle creados en Daz3D. Algo me dice que la tienda de assets se va a llenar de skins híperrealistas.

El Metaverso no es un sitio, es una jungla

Si sigues esperando que el Metaverso sea como "Ready Player One", olvídate. No hay una única plataforma donde todo ocurre, sino un batiburrillo de proyectos a su bola, más "Ralph Rompe Internet" que otra cosa. Unas empresas apuestan por hardware cada vez más loco: gafas VR, dispositivos hápticos, sensores que te leen la mente (o casi).

Figura 4: Aquí esta Chema Alonso con su Hacker y su Survivor.
en modo "Papaete Rompe Internet".
Imagen generada en ChatGPT y rotulada en Photoshop
   
Otras prueban con redes sociales pegadas a mundos virtuales, como las nuevas funciones de Snapchat+ incluyendo ropa Bitmoji… O como MySnap, que ahora hace de "Facebook" para Second Life. Todo avanza, pero cada uno por su lado. ¿Llegará el día en que todo encaje? Ni idea, pero mientras tanto, se están sentando las bases a golpe de prueba y error.

El futuro: más interoperabilidad entre mundos virtuales

Con estos movimientos, podríamos pensar que la barrera entre plataformas se está diluyendo. Moverte de un mundo virtual a otro todavía es casi como cambiar de país sin pasaporte. Pero ¿y si los avatares empiezan a ser más transportables? ¿Veremos un futuro donde puedas usar el mismo avatar en Second Life, Roblox, VRChat y Horizon Worlds sin fricciones?

Figura 5: Avatar de Ready Player Me montado por piezas,
en proceso de customización maligna.

Yendo un paso más allá, ¿llegará el día en que nuestros bienes virtuales, tanto económicos como de inventario (ropa, props, vehículos…) y de agenda (contactos, comunidad, eventos…) sean interoperables, accesibles desde diferentes plataformas? De momento sigue siendo una utopía lejana, pero los pasos que estamos viendo parecen ir en esa dirección.

Figura 6: Avatar Maligno en Spatial

Eso sí, no nos flipemos demasiado. Internet aún no tiene la capacidad que necesitaríamos para hacer un metaverso como el de las pelis. De ahí que haya que tirar de inventos como el Pixel Streaming: una solución costosa, pero que nos sirve como campo de pruebas para cuando la infraestructura se ponga las pilas. De momento, nos toca apañarnos con lo que hay.

Recordatorio para despistaos

Hablando de avatares, si quieres uno en VRM híper-realista para moverte entre juegos y mundos virtuales, en MyPublicInbox puedes generarlo online y gratis con Union Avatars. Solo subes una foto y en nada tienes tu versión digital lista para exportar donde quieras. Pásate por MyPublicInbox (hazte perfil público si aún no lo eres) y prueba, que es inmediato.

Figura 7: Avatar VRM de Chema Alonso hecho con Union Avatars

De hecho, en MyPublicInbox tienes también disponible el servicio personalizado de escaneo 3D y creación de tu avatar híper-realista mediante AR Future. El operativo consiste en una visita al estudio para escanearte con 21 cámaras, y el equipo de AR Future se encargará de generar tu avatar y prepararlo para navegar infinidad de juegos y mundos virtuales.


Figura 8: Chema Alonso zurándole la badana al Hombre de Negro... en avatares VRM

Si todo esto de los avatares y la interoperabilidad te interesa, tienes varios artículos anteriores en este blog. Si te los perdiste, échales un ojo.

Crear tu Avatar VRM híper-realista a partir de tu rostro en MyPublicInbox con Union Avatars
Y ahora, sorpresa. Al principio pretendía que pareciera que este post lo hubiera escrito Chema Alonso… pero he preferido ser "buenigna". En realidad, Dr. Dr. Maligno ha sido mi avatar para el estilo de escritura. Pero el humano detrás del teclado he sido yo. Nos vemos en el próximo artículo… ¿O en el próximo mundo virtual? 

¡Lok'Tar! ¡Mok'Gra! ¡POR LA HORDA! XD

¡Saludos!

Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares