Mostrando entradas con la etiqueta cine. Mostrar todas las entradas
Mostrando entradas con la etiqueta cine. Mostrar todas las entradas

domingo, agosto 10, 2025

De “El cortador de césped” a Genie 3: El futuro que imaginamos con mundos virtuales en tiempo real

Han pasado once meses desde mi primera comunicación con Chema Alonso a través de su cuenta de MyPublicInbox. Y ahora me doy cuenta de que, sin saberlo, desde entonces estoy viviendo mi último año de infancia tecnológica. Hola, soy María. Hace poco os hablé de Veo 3. Hoy quiero hablaros de Genie 3, que es también de Google DeepMind

¿Cuál es la diferencia entre ambos? Hablando pronto y mal: Veo 3 es un generador de vídeos, Genie 3, es un generador de simuladores. Aunque Genie 3 se ha anunciado esta semana, no podemos usarlo todavía: de momento las pruebas están reservadas por invitación a investigadores concretos con máquinas potentes. Personalmente agradezco tener un margen de tiempo para hacerme a la idea. Hay mucho que digerir.


Lo resumo brevemente a continuación en el artículo, pero si quieres una explicación más detallada, Carlos Santana a.k.a. DotCSV lo explicó genial el otro día en un vídeo muy chulo de esos que publica en su canal. Aquí os lo dejo.


Figura 3: GENIE 3 ¡El increíble SIMULADOR DE MUNDOS INTERACTIVOS de Google!
por Carlos Santana (DotCSV)

¿Os lo resumo? Venga va. O como te diría si estuviéramos en un mundo virtual... “Sígueme” :D

1. Escribes un prompt de lo que quieres generar.

2. Genie 3 simula un entorno virtual según tu prompt.
3. Una vez generado el entorno, tú lo navegas desde tu pantalla, manejando los controles desde tu teclado
4. El vídeo se genera en tiempo real respondiendo a tus controles: adonde mires, Genie 3 genera cada fotograma simulando lo que ves.
5. Podrás añadir objetos y acciones sobre el mundo ya creado, y accionar la interactividad desde tus controles.
6. Tu sensación será similar a estar avanzando por un videojuego, pero no es geometría tradicional. No hay 3D, no hay grid: lo que ves y accionas está siendo imaginado por Genie 3 en tiempo real.

7. Las sensaciones físicas son increíblemente realistas. Por ejemplo cómo responde el agua a la colisión, parece real.
8. Genie 3 tiene memoria estable. Aunque gires la cámara a un lado y luego vuelvas a girar a la vista inicial, no cambia lo que estabas viendo. 

Como ves en este ejemplo de la web de Genie 3, puedes pedirle que te genere una escena interactiva donde el usuario pinte una pared. Atiende porque esto es muy fuerte: si el usuario se mueve en mitad de su labor, al volver atrás sus trazos seguirán ahí.


Entre la información publicada por Google DeepMind encontraréis esta tabla, donde podéis identificar de un vistazo algunas de las mejoras de Genie 3 respecto a versiones anteriores y Veo.


Y ahora dime, ¿no has notado nada raro? Ahá... Esas imágenes... ¿No corresponden a Genie 3, verdad? ¡Efectivamente y no! XD Son capturas falseadas del videoclip “Amazing” de Aerosmith, de 1993.

Figura 12: ZAS! En toda la boca.

¿Y por qué te he troleado con Aerosmith? Te cuento: porque es significativo para mí. Este videoclip fue uno de los primeros contactos que tuve en mi vida con el concepto de realidad virtual. Pero no fue el primero.

Figura 13: “Amazing” de Aerosmith, del album Get A Grip, 1993.

Mi primera referencia a realidad virtual fue una peli que trajo mi hermano del videoclub al poco de tener un vídeo VHS en casa. Es de 1992: El cortador de césped de Brett Leonard. Está basada en un relato corto de Stephen King de 1975 incluido en el libro de relatos El umbral de la noche.


Figura 14: Trailer de la película El cortador de césped (The Lawnmower Man)

Recuerdo erróneamente que pasó muchísimo tiempo entre la peli del 92 y el videoclip del 93... Como si hubieran pasado varios años. Creo que lo recuerdo mal porque en 1992 aún era la niña del ratón roto, con 14 años. Pero en 1993 ya tenía 15 años (sí, tú ríete...) Pero va en serio: a los 15 es como si de repente fuera otra persona. Desde 1993 hasta ahora la tecnología de realidades extendidas ha cambiado mucho, cuantitativamente. Pero eso, en el fondo eran cambios cuantitativos. Yo que tanto he amado la geometría, el low-poly, el level of detail, la draw distance, el render to texture... Snif.

Por cierto, ¿leíste el artículo del otro día de dr. dr. Maligno, el de entrenar a robots mediante sueños? Si ves otra vez el vídeo de la charla (es la charla que dio en Vigo el 2 de julio), verás que una vez más Chema Alonso va semanas por delante de novedades, releases, volamientos de cabeza, hypes y bluffs. 

Figura 15: "Can Machines Think or Dream Without Hallucinations?"

Si el otro día ante Veo 3 me sentía como la niña de 14 años, hoy ante Genie 3 me siento como cuando tenía 15. Como cuando veía vídeos de Aerosmith como si no hubiera un mañana. Sí, confusa, asustada... Pero también excitada, muriendo por desarrollar mi potencial, sin importarme llevarme a alguno por delante y con unas ganas locas de comerme el mundo. Os decía al principio que este está siendo mi último año de infancia tecnológica. Pero no soy solo yo, me temo que somos todos. Ahora ya sí chavales. Toca espabilar. Toca madurar... Toca pasarse al lado del mal.

¿Quieres saber más?

Ya sabes dónde encontrarnos a todos, en mi buzón público y en el chat público de El lado del mal en MyPublicInbox... Y —si te animas— ¡edita algo tú también! Aunque sea con un ratón de bola sobre el muslo =^_^=

lunes, abril 21, 2025

"Daisy Bell" La canción que cantó una máquina: Del IBM 7094 a HAL 9000 (y a las DeepFakes de Voz hechas con IA)

Hoy os traigo una "microhistoria" peculiar que tiene que ver con la historia de la tecnología. Es una historia de esas que empieza con una sonrisa y termina con un escalofrío. Are you ready?  Vamos a remontarnos a un momento concreto, a un laboratorio concreto, y a una canción que, aunque suena muy inocente, esconde entre líneas un mensaje que (si lo escuchas con atención) te pone los pelos de punta...

Figura 1: "Daisy Bell" La canción que cantó una máquina.
Del IBM 7094 a HAL 9000 (y a las DeepFakes de Voz hechas con IA)

Un año: 1961. Un lugar: Bell Labs, New Jersey. Un protagonista: un ordenador llamado IBM 7094Imagina un ordenador tan grande como una habitación, con bobinas magnéticas girando, luces parpadeando, y un grupo de ingenieros rodeándolo como si estuvieran a punto de traspasar una frontera.
No hay pantallas planas, ni interfaces gráficas, ni asistentes de voz. Solo código, cables, y un zumbido constante. En ese ambiente nació uno de los momentos más extraños y fascinantes de la historia de la informática.Es el IBM 7094, tan magnífico como lo puedes ver en la imagen siguiente en todo su esplendor. 


En el centro de esta escena, un grupo de genios —John Larry Kelly Jr. y Carol Lochbaum entre ellos— estaban experimentando con algo nuevo. Algo que hoy nos parece cotidiano, pero que en aquel entonces era pura ciencia ficción: hacer que una máquina hablara.

Figura 4: El corazón de Bell Labs. Ordenadores
y cerebros brillantes conspirando juntos.

Efectivamente, se trataba de los primeros experimentos de síntesis de voz... Pero no se conformaron con eso. Y es que el equipo contaba también con el compositor Max Mathews, del que hoy lunes se cuentan 21 años de su fallecimiento y lo queremos recordar hoy, como uno de los padres de la música por ordenador

La canción elegida:


Esta canción, compuesta en 1892 por Harry Dacre, se podría describir como inofensiva, pegadiza, incluso un poco cursi. Pero no la eligieron sólo por la palabra “Bell” en ambos nombres “BELL Labs”-“Daisy BELL”. En realidad fue porque había algo en su estructura melódica que la hacía ideal para el experimento: notas simples, frases cortas, ritmo regular. Perfecta para que una máquina diera sus primeros pasos en el mundo de la voz sintética.

Y entonces ocurrió.

En el siguiente vídeo podéis escuchar la canción como sonaba originalmente, y leer la letra. La imagen es la partitura original de “Daisy Bell” de Harry Dacre, 1892

Figura 5: Grabación más antigua conservada de la canción “Daisy Bell”, 1894.

El sonido es la grabación más antigua que se conserva, cantada por Edward M. Favor en 1894 para Edison Phonograph Company... ¡La grabación es de hace más de 130 años!

La primera vez que una máquina cantó

En 1961, el IBM 7094, programado por John Larry Kelly Jr. y Carol Lochbaum, y acompañado por otro ordenador con la instrumentación programada por Max Mathews, cantó. Cantó de verdad. No sólo emitió sonidos. Cantó una canción reconocible, con letra, con melodía, con esa voz robótica que tanto nos recuerda hoy a los primeros sintetizadores de los años 80... Pero que en aquel momento era completamente inaudita. Imagina estar allí y escuchar por primera vez a una máquina decir:

“Daisy, Daisy, give me your answer, do...”

Dicen que los presentes se quedaron en silencio. No sabían si aplaudir... O apagar el sistema y salir corriendo.

Figura 6: Daisy Bell cantada por el IBM 7094

En el vídeo anterior tenéis un fragmento original del IBM 7094 cantando "Daisy Bell", una rareza de museo digital. Si quieres, escúchalo con auriculares, a solas y con poca luz... 

Pero aquí no acaba la historia

Años después, un escritor británico llamado Arthur C. Clarke visitó en Bell Labs a su amigo, el ingeniero y escritor de ciencia ficción John R. Pierce. El equipo le mostró la demo: Clarke quedó tan impresionado que tomó nota mental. 

Y cuando escribió su famosa novela "2001: Una odisea del espacio", incluyó la escena completa de aquella voz robótica entonando “Daisy Bell”.

Figura 8: Artur C. Clarke en uno de los sets de “2001: Una odisea en el espacio”.

Artur C. Clarke incluyó la experiencia tanto en la novela como en el guión cinematográfico, ambos de 1968, y la convirtió en una de las escenas más icónicas del cine: HAL 9000, el ordenador con inteligencia artificial, cantando Daisy Bell mientras lo desconectan. Un canto fúnebre. Una despedida. Un aviso.

Figura 9: HAL 9000 cantando Daisy Bell 

HAL 9000, el heredero emocional del IBM 7094. A veces las máquinas también cantan antes de morir. La ficción imita a la realidad... ¿O es al revés? Stanley Kubrick inmortalizó la escena en su película. HAL 9000, frío, lógico, brillante... Y de repente, profundamente humano en su última petición: cantar una canción de la infancia tecnológica. Un recordatorio de sus orígenes. Un último suspiro de algo que quizás, después de todo, no sabemos si estaba tan claro que no tuviera alma.

¿Por qué importa esto hoy?

Porque todo empezó aquí. La síntesis de voz, los asistentes virtuales, la música generada por IA, los Deepfakes de Audio... Todo tiene su semilla en ese IBM 7094 y esa canción del Siglo XIX. Cada vez que oigas a tu móvil decirte el tiempo, a tu coche darte direcciones, o a un sistema de IA componer una canción, recuerda: hubo un momento en que una máquina entonó "Daisy" por primera vez. Y el mundo nunca volvió a ser el mismo.

¿Quién soy?

Si has llegado hasta aquí y pensabas: “Este artículo tiene toda la pinta de estar escrito por Fran Ramírez”… Te tengo que confesar algo.

¡Pues no!

Otra vez os he liado con mi avatarmanía. Hoy he intentado imitar el estilo único de Fran (desde el cariño, namasté, reverencia). Soy María. Se me ocurrió contaros esta historia tan alucinante de forma que os sonara familiar =^_^= Espero que te haya gustado, y que la próxima vez que escuches a una máquina cantar… Pienses en Daisy Bell. ¿Nos vemos en el chat de El lado del mal, en MyPublicInbox? Pues hala, ya sabes dónde encontrarme. 

martes, abril 01, 2025

Pixel Streaming: el Metaverso en tu navegador vía Streaming

Estaba trasteando con mis cosas cuando me dio por pensar en cómo los mundos virtuales se están moviendo cada vez más al navegador. Y no, hoy no me refiero a temas de Web3, Identidad Digital, Smart Contracts o Blockchain. Dejemos eso para otro día. Hoy toca hablar de algo más visual: la interoperabilidad de los mundos virtuales sociales y cómo se están rompiendo fronteras.
 
Figura 1: Pixel Streaming - El Metaverso en tu navegador vía Streaming

Antes de comenzar, déjame decirte que la imagen anterior está generada en Perchance.org, rotulada en Photoshop y reescalada en Ai.Nero, por si te lo estabas preguntado. Ahora vamos con el artículo de hoy, no te pierdas.

Second Life en navegador y en móviles

Los viejos rockeros nunca mueren, y Second Life es la prueba de ello. Aunque muchos lo daban por muerto desde hace años, la plataforma sigue viva y coleando, y en 2025 ha dado un paso clave: ahora permite probar durante una hora su versión en navegador.

Second Life no es el primero en abrir la puerta del navegador, ya lo hizo Horizon Worlds en julio de 2024, pero aquí la gracia está en que Second Life es mucho más complejo. ¿Cómo demonios consiguen meter ese mundo de geometría loca, economía virtual y anatomía rebotante en un simple Google Chrome, Firefox o lo que uses para navegar? Pues con Pixel Streaming.


Básicamente, en vez de pedirle a tu ordenador que sufra renderizando todo, lo ves por streaming desde servidores tochos. Salvando las distancias, es como si pilotaras un submarino mirando por un periscopio 100% inmersivo. El coste de este modo de navegación vía Pixel Streaming todavía es alto, por eso lo están limitando a pruebas de una hora, pero funciona. Ah, y también en móviles. No está mal para un abuelo del metaverso.

Daz3D ahora exporta avatares para Roblox

Si alguna vez has trasteado con Daz3D, sabes que es una herramienta potente para crear modelos 3D ultra realistas. Hasta ahora, la cosa se quedaba en renders bonitos o en exportaciones para videojuegos y animación, pero desde febrero de 2025, han dado un paso interesante: permitir la exportación de avatares para Roblox.

Desde el 20 de febrero de 2025
  
Sí, Roblox, esa plataforma donde a veces los gráficos parecen salidos de una pesadilla de Minecraft, ahora puede tener personajes de alto nivel de detalle creados en Daz3D. Algo me dice que la tienda de assets se va a llenar de skins híperrealistas.

El Metaverso no es un sitio, es una jungla

Si sigues esperando que el Metaverso sea como "Ready Player One", olvídate. No hay una única plataforma donde todo ocurre, sino un batiburrillo de proyectos a su bola, más "Ralph Rompe Internet" que otra cosa. Unas empresas apuestan por hardware cada vez más loco: gafas VR, dispositivos hápticos, sensores que te leen la mente (o casi).

Figura 4: Aquí esta Chema Alonso con su Hacker y su Survivor.
en modo "Papaete Rompe Internet".
Imagen generada en ChatGPT y rotulada en Photoshop
   
Otras prueban con redes sociales pegadas a mundos virtuales, como las nuevas funciones de Snapchat+ incluyendo ropa Bitmoji… O como MySnap, que ahora hace de "Facebook" para Second Life. Todo avanza, pero cada uno por su lado. ¿Llegará el día en que todo encaje? Ni idea, pero mientras tanto, se están sentando las bases a golpe de prueba y error.

El futuro: más interoperabilidad entre mundos virtuales

Con estos movimientos, podríamos pensar que la barrera entre plataformas se está diluyendo. Moverte de un mundo virtual a otro todavía es casi como cambiar de país sin pasaporte. Pero ¿y si los avatares empiezan a ser más transportables? ¿Veremos un futuro donde puedas usar el mismo avatar en Second Life, Roblox, VRChat y Horizon Worlds sin fricciones?

Figura 5: Avatar de Ready Player Me montado por piezas,
en proceso de customización maligna.

Yendo un paso más allá, ¿llegará el día en que nuestros bienes virtuales, tanto económicos como de inventario (ropa, props, vehículos…) y de agenda (contactos, comunidad, eventos…) sean interoperables, accesibles desde diferentes plataformas? De momento sigue siendo una utopía lejana, pero los pasos que estamos viendo parecen ir en esa dirección.

Figura 6: Avatar Maligno en Spatial

Eso sí, no nos flipemos demasiado. Internet aún no tiene la capacidad que necesitaríamos para hacer un metaverso como el de las pelis. De ahí que haya que tirar de inventos como el Pixel Streaming: una solución costosa, pero que nos sirve como campo de pruebas para cuando la infraestructura se ponga las pilas. De momento, nos toca apañarnos con lo que hay.

Recordatorio para despistaos

Hablando de avatares, si quieres uno en VRM híper-realista para moverte entre juegos y mundos virtuales, en MyPublicInbox puedes generarlo online y gratis con Union Avatars. Solo subes una foto y en nada tienes tu versión digital lista para exportar donde quieras. Pásate por MyPublicInbox (hazte perfil público si aún no lo eres) y prueba, que es inmediato.

Figura 7: Avatar VRM de Chema Alonso hecho con Union Avatars

De hecho, en MyPublicInbox tienes también disponible el servicio personalizado de escaneo 3D y creación de tu avatar híper-realista mediante AR Future. El operativo consiste en una visita al estudio para escanearte con 21 cámaras, y el equipo de AR Future se encargará de generar tu avatar y prepararlo para navegar infinidad de juegos y mundos virtuales.


Figura 8: Chema Alonso zurándole la badana al Hombre de Negro... en avatares VRM

Si todo esto de los avatares y la interoperabilidad te interesa, tienes varios artículos anteriores en este blog. Si te los perdiste, échales un ojo.

Crear tu Avatar VRM híper-realista a partir de tu rostro en MyPublicInbox con Union Avatars
Y ahora, sorpresa. Al principio pretendía que pareciera que este post lo hubiera escrito Chema Alonso… pero he preferido ser "buenigna". En realidad, Dr. Dr. Maligno ha sido mi avatar para el estilo de escritura. Pero el humano detrás del teclado he sido yo. Nos vemos en el próximo artículo… ¿O en el próximo mundo virtual? 

¡Lok'Tar! ¡Mok'Gra! ¡POR LA HORDA! XD

¡Saludos!

miércoles, febrero 12, 2025

¿Sabes cuál es la increíble conexión entre Tubular Bells, El Exorcista y Alan Turing?

Esta historia es realmente increíble, de las que nos gustan de verdad ;) una de esas "serendipias" imposibles de la tecnología. Vamos al año 1973. En esa fecha pasaron dos eventos importantes en el ámbito del cine y la música. Por un lado, se estrenó la película El Exorcista, que traumatizó a varias generaciones (entre ellos yo mismo). Por el otro, un joven Mike Oldfield, que por entonces tenía apenas 19 años, publicó su álbum debut, Tubular Bells, en el sello Virgin Records. Ese disco terminó siendo la banda sonora de la magnífica e icónica película de terror.


Hasta aquí es algo que ya sabíamos. Espera que ahora llega el giro en la historia ¿qué tiene que ver todo esto con un gigantesco transmisor de radio en Inglaterra, mensajes de la Segunda Guerra Mundial y el mismísimo Alan Turing? Pues, aunque parezca algo imposible, todo está relacionado de la forma más increíble. 
Pero antes de seguir, recordaros que como esta y otras historias las podéis encontrar en nuestro libro de "Microhistorias: anécdotas y curiosiades de la historia de la informática (y los hackers), que está lleno de este tipo de anécdotas:

El estudio y la señal “fantasma”

Para grabar Tubular Bells, Mike Oldfield se encerró literalmente durante una semana en The Manor Studio, una mansión reconvertida en estudio propiedad de Richard Branson, situada en Shipton-on-Cherwell (Inglaterra). Allí, estuvo tocando los instrumentos que luego terminaron combinándose en aquella canción que ya es historia. Lo que nadie sospechaba en ese momento es que la misma instalación, con sus micrófonos y cables, estaban captando algo que no estaría precisamente relacionado con la música.


A unos 60 kilómetros (37 millas) de The Manor Studio se encontraba el Rugby Radio Station, una gran estación de radiodifusión que fue inaugurada poco después de la Primera Guerra Mundial. Su potencia y alcance eran tan grandes que no sólo enviaba mensajes a otras estaciones de la red de comunicaciones británica, sino que también se usó para la primera comunicación telefónica transatlántica. Tras los años 50, además, sirvió para enviar mensajes a submarinos sumergidos (con señales de muy baja frecuencia, VLF).

Un detalle curioso es que este transmisor operaba en 16 kHz, un rango que, aunque no es audible para el oído humano como sonido, sí puede ser detectado y registrado por ciertos equipos de audio sensibles (o con un mal aislamiento). Dicho de otro modo, cualquier cable o guitarra eléctrica que funcione como una antena improvisada puede capturar esa señal de radio y transformarla en electricidad que podría quedar registrada después en una grabación.


Pues justamente esto fue lo que ocurrió con Tubular Bells. En la mezcla final del disco quedó grabado, de manera imperceptible al oído, el código Morse que transmitía esta estación británica 24/7, es decir su “callsign” (indicativo de llamada, una especie de matrícula de identificación de la señal). Muchos años después, un ingeniero austriaco llamado Gerhard Kircher descubrió la señal al analizar el audio con software de espectrograma. Observó esa línea horizontal en 16 kHz y no era ruido aleatorio, era el Morse de la estación GBR de Rugby, nada más y nada menos.

La señal capturada y la conexión con Alan Turing

La señal de 16 kHz repetía algo como “VVV GBR”, que significaba:
  • “VVV”: Llamada genérica en Morse, una especie de “¡Hey, atención!”
  • “GBR”: Siglas de “Great Britain Rugby”
Y en Morse:
  • VVV: ...- ...- ...-
  • GBR: --. -... .-.

Esta era la forma de identificarse del transmisor, una “firma” repetida en bucle hasta el infinito. A lo largo de los casi 50 minutos del disco, esa señal se cuela en cada surco del vinilo (y también en cada pista del CD), quedando “incrustada” como un mensaje cifrado para quien tuviera las herramientas necesarias para leerlo.

La conexión con Alan Turing

Rugby Radio Station era parte de la red de grandes estaciones británicas, junto con otras ubicadas en Londres y en Cupar (Escocia). Esta última, en la región de Fife, también conocida como “G.P.O. Transatlantic Radiophone Station Kembeck”, se convirtió durante la Segunda Guerra Mundial en un centro de intercepción de señales enemigas para la red de espionaje llamada “Y” Service. Era el mismo entramado de escuchas que alimentaba con mensajes cifrados (con la máquina Enigma) a Bletchley Park, donde Alan Turing, junto a un equipo de genios, trabajaba para descifrar el código Enigma del ejército alemán.

Figura 6. Alan Turing

Turing, (al cual le tengo total admiración), recordemos que es una figura esencial en la historia de la informática y la criptografía. Junto a su equipo, descifró las comunicaciones nazis y aceleró el final de la guerra (salvando miles de vidas). Su trabajo, además, nos dejó conceptos clave en la informática o la Inteligencia Artificial, como la máquina de Turing y la Turing-Complete, entre muchos otros.

Aún queda un giro más: cuando el terror, música y ciencia se encuentran

Así que, al final, tenemos a El Exorcista, una película de terror llevó a la fama de Tubular Bells, que es un disco que está lleno de un código Morse que, sin saberlo, conectaba con una estación de radio parte fundamental de la historia bélica y de la criptografía. Uno de esos giros casi imposible de la historia. Y hablando de giros, mientras vemos a Regan poseída “girando” la cabeza ;) esa banda sonora oculta un rastro tecnológico que conecta con Alan Turing. Esto es realmente una locura.

Pero para aumentar aún más la leyenda, el transmisor GBR se apagó definitivamente en 2003, dando paso a otras instalaciones más modernas. Sin embargo, esa “huella” quedó inmortalizada en todos y cada uno de los discos de Tubular Bells que, a su vez, sigue vendiendo (y escuchándose) copias muchos años después.

Y ojo, es muy probable que existan otros álbumes de otros artistas con esa misma “marca de agua” de radio, porque The Manor Studio y otros estudios ingleses estaban dentro del área de cobertura de Rugby. He hecho mis investigaciones y aquí tenéis algunos discos que se grabaron allí antes de que se apagara la antena y que puede que también registraran la señal, ojo a los que he seleccionado:
  • 1973: Phaedra – Tangerine Dream.
  • 1978: Wavelength – Van Morrison.
  • 1984: The Swing – INXS.
  • 1992: Wish – The Cure.
  • 1995: The Bends – Radiohead.
¿Te animas a buscar la señal en alguno de ellos? Aquí te dejo el enlace para escuchar el mensaje:
Un legado cifrado para la historia

No deja de ser alucinante cómo una onda electromagnética de 16 kHz haya conectado el mundo del cine de terror con una canción mítica, las transmisiones británicas de la Segunda Guerra Mundial y al genio de Alan Turing.


Figura 7: Vídeo con todo el proceso de detección y descifrado

Y es así amigos y amigas, como de forma casi mágica, el terror de El Exorcista, la música de Mike Oldfield y el genio de Alan Turing se cruzan, dejando grabado para la historia, una especie de cápsula del tiempo. Eso sí, con un encapsulado excepcional: el maravilloso disco de Tubular Bells y la película de “El Exorcista”.

Happy Hacking Hackers!!! 

Autor: Fran Ramírez, es investigador de seguridad y miembro del equipo de Ideas Locas en CDO en Telefónica, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps", también de "Machine Learning aplicado a la Ciberseguridad” además del blog CyberHades. Puedes contactar con Fran Ramirez en MyPublicInbox.

 Contactar con Fran Ramírez en MyPublicInbox

jueves, diciembre 26, 2024

La Tertulia Cultural "En casa de Herrero" - Diciembre 2024

Después de la resaca de Navidad, aprovecho para dejaros las sesiones radiofónicas grabadas - también llamados podcasts - de La Tertulia Cultural "En casa de Herrero" de este mes de Diciembre que, como sabéis, hacemos todos los lunes a las 17:00 de la tarde y que volverá después de Reyes Magos En ellas hablamos de cine, de música, de series, de conciertos, de lugares, de cómics, de canciones, de directores de cine, actores y actrices, escritores, libros y dibujantes, o lo que buenamente surja, durante una hora.

Mes de Diciembre de 2024

En dicha tertulia, Luis Herrero ha juntado a Luis EnriquezJosé Luis Garci y a un servidor para que hablemos de lo que vaya saliendo. Así que saldrá mucha música, cine, cómics, libros y tecnología, que son los temas que nos interesan a los que allí nos vamos a juntar los lunes. Vale, el de los cómics soy yo, que quede claro.

El primer programa de este mes fue el día 2 de Diciembre, donde elegí yo la canción de apertura "Pan de Higo" y puede hablar de mi pasión por Rosendo Mercado y escribimos al gran Rafa J. Vegas para que nos contara algún secreto sobre las canciones que más les gustaban. 

Además, yo le regalé a Luis Enriquez el libro de "Córtate el pelo y búscate un trabajo", que tanto me gusta, y que te recomiendo encarecidamente para ti o para regalar, si eres de los que disfruta de la música rock de este país, y que junto con  Mil maneras de volver al hotel  te van a dejar un regusto fantástico de toda esa época.
Y como colofón nos encontramos con la llamada de un grande de la comunicación como es José María García, que quería hablar con nosotros un rato. Quedó un día muy curioso en la tertulia.
El siguiente programa de este mes fue el día 9 de Diciembre, y en él hablamos con Alfonso Ussía que vino a hablarnos de su último libro "Borroka" que recoge años de la historia de este país especialmente duros, pero donde además aprovechamos para hablar de la joya que es Vatio y sus años con Antonio Vega.


Figura 6: La Tertulia Cultural 9 de Diciembre de 2024

Alfonso Ussía es amigo, y también asistente a las comidas y cenas de los "50 Chuletones", así que durante la tertulia estuvimos tirando de amigos comunes que nos contaran aventuras de las cenas, pero todos fueron bastante "comedidos".
Terminamos el año con el programa del 16 de Diciembre, donde hablamos de la Lotería de la Navidad, de todo lo que se puede hacer ahora con Grok y las personas públicas, y de, cómo no, las reivindicaciones de José Luis Garci en la recogida de la Medalla de Oro en los 30 Premios Forqué.

Figura 8: José Luis Garci Medalla Oro 30 Premios Forqué

El tema de la Lotería de Navidad nos dio mucho juego porque lo hicimos con ChatGPT, y yo intenté darle una comisión de 1.000.000 de USD para que me diera un buen número, y la verdad es que me ofreció un número redondo.

Figura 9: La Tertulia 16 de Diciembre de 2024

Y ya está, esto es lo que nos dio de sí el mes de Diciembre, donde sólo hicimos estas tres sesiones, que os he recuperado ayer mismo para que las podáis tener hoy y escucharlo, si tenéis tiempo, mientras leéis, hacéis deporte, o mientras dais un paseo.
No volveremos a La Tertulia Cultural "En casa de Herrero" hasta el año que viene, pero yo intentaré seguir yendo todos los lunes con estos tres, que al final me lo paso bien charlando un ratio a la semana de cosas variadas, escuchando las recomendaciones de Luis Enriquez, las historias de de José Luis Garci, y las palabras de Luis Herrero

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


domingo, diciembre 01, 2024

La Tertulia Cultural "En casa de Herrero" del mes de Noviembre de 2024

Hoy domingo voy a aprovechar para dejaros las sesiones radiofónicas grabadas, también llamados podcasts, de La Tertulia Cultural "En casa de Herrero" que, como sabéis, hacemos todos los lunes a las 17:00 de la tarde (mañana también tendresmo). En ellas hablamos de cine, de música, de series, de conciertos, de lugares, de cómics, de canciones, de directores de cine, actores y actrices, escritores, libros y dibujantes, o lo que buenamente surja, durante una hora.

Mes de Noviembre de 2024

En dicha tertulia, Luis Herrero ha juntado a Luis EnriquezJosé Luis Garci y a un servidor para que hablemos de lo que vaya saliendo. Así que saldrá mucha música, cine, cómics, libros y tecnología, que son los temas que nos interesan a los que allí nos vamos a juntar los lunes. Vale, el de los cómics soy yo, que quede claro.

El primer programa de este mes fue el día 4 de Noviembre, donde continuamos hablando de la película de Escape de Rodrigo Cortes, que tiene un punto final al más puro estilo de "La Naranja Mecánica" de Stanley Kubrick.

Por supuesto, también hablamos de la última película de Clint Eastwood, y de lo que se nos fue ocurriendo por el camino, que es lo que solemos hacer. Solo charlar un rato de cosas que tienen que ver con la cultura y la actualidad.
El siguiente programa de este mes fue el día 11 de Noviembre, donde hablamos de las 100 películas de la historia del cine elegidas por Zenda y XL Semanal donde echamos de menos algunas importantes, pero también alguna comedia o alguna de superhéroes.


Figura 5: La Tertulia Cultural 11 de Noviembre de 2024

Por supuesto, ya que estábamos hablando de películas, aprovechamos para hablar de otras películas, y yo me acordé de la escena mítica del baile de Tom Cruise en Tropic Thunder, que es una locura.


Figura 6: Tom Cruise bailando al final de Tropic Thunder

Yo me salté el programa del lunes 18 de Noviembre, que me pilló de viaje dando una charla, así que el siguiente programa fue el pasado 25 de Noviembre, donde hablamos de los Gun's and Roses, entre otras muchas cosas, como ver el cine en 4DX.


Figura 7: La Tertulia 25 de Noviembre de 2024

Y ya está, que ya tenemos que pensar en las últimas sesiones de este año, comenzando mañana mismo, que es lunes y nos toca juntarnos otra vez.
Y eso es todo lo que dio de sí Noviembre en La Tertulia Cultural "En casa de Herrero", y ya hablaremos d esta tertulia el año que viene - o los últimos días de este año, que es cuando me pararé a recuperar el mes de Diciembre por aquí. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


lunes, noviembre 18, 2024

El traductor de Bing ha visto Star Wars, ¿el de Google no?

Hoy lunes os voy a traer una curiosidad de esas que se me pasa por la cabeza cuando menos lo busco. Y en este caso tiene que ver con Star Wars y la Senadora Padmé Amidala, que era la protagonista de uno de los capítulos de Star Wars Clone Wars que estoy viendo a ratos, ya que no la vi en su momento y eso no puede ser.

Figura 1: El traductor de Bing ha visto Star Wars, ¿el de Google no?

Viendo que Padmé es un nombre poco común, se me ocurrió preguntarme con qué sesgo de género traduciría Google Translator y Bing Transalator una frase que se refiriera a "ella", ya que como sabéis "Senator Padmé" es la mamá de Luke Skywalker. Así que probé primero con Bing Translator, y el resultado me sorprendió.

Figura 2: Traduciendo "Padme" en lugar de "Padmé"

Primero puse una frase en la que no escribí bien el nombre, por error mío, ya que pensé que como el personaje es de una película americana, no tendría tilde, pero... Star Wars es multicultural, y el personaje se llama realmente Padmé Amidala. El resultado que podéis ver arriba es que lo traduce con Sesgo de Género Masculino, algo que sabéis que deben arreglar.

Figura 3: Buscando imágenes de Senator Padmé en Bing

Sin embargo, al escribir correctamente el nombre como Senator Padmé, me sorprendió ver cómo Bing aplica una traducción en femenino, así que debe asumir que Padmé es un nombre femenino. Curioso, pero fácil de explicar. 

Figura 4: Sesgo de género por defecto femenino para "Senator Padmé"

Al final, las traducciones que debe tener el modelo de datos con que se ha entrenado el traductor para el nombre de Padmé deben ser pocas y muchas seguramente procedentes de Star Wars, así que la inferencia femenina es un sesgo femenino como el de traducir nurse como enfermera.

El caso de Google Translator

Lo cierto es que haciendo la misma prueba con Google, el resultado ha sido distinto, pero con un matiz muy curioso, que os dejo a continuación. Si traducimos Senator Padme escribiéndolo mal, el resultado es que lo traduce con sesgo de género en masculino.

Figura 5: Traducción de Senator Padme con sesgo de género masculino

Ahora, si pedimos la traducción de Senator Padmé por solitario, podemos ver que el resultado que nos ofrece es en femenino. Esto puede ser porque tenga un sesgo de género en femenino - como en el caso de Bing - o que haya sido tratado a posteriori, aplicando lipstick.

Figura 6: Senator Padmé lo traduce en femenino

Para salir de dudas, usando una frase con tres términos con género indeterminado - el truco que os conté hace mucho para conocer el sesgo de género por defecto - podemos saber si el sesgo es femenino o masculino para "Senator Padmé". 

Figura 7: Senator Padmé con sesgo de género masculino

El resultado es que Senator Padmé lo traduce por Senador en masculino, así que ese es su sesgo de género. Como podéis imaginar, estos sesgos de género por defecto pueden llevar a errores, confusiones, o difusión de ideas erróneas, y por eso tenemos la petición abierta para que Google y Bing lo arreglen. ¡Apóyala!

Ya sabéis que Apple Translator lo ha corregido, y es el camino que deberán seguir, tarde o temprano, Microsoft y Google para evitar que los usuarios de sus traductores se lleven errores, información inexacta y subliminalmente produzcan ideas erróneas en la mente de las personas que los usan.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares