Han pasado once meses desde mi primera comunicación con Chema Alonso a través de su cuenta de MyPublicInbox. Y ahora me doy cuenta de que, sin saberlo, desde entonces estoy viviendo mi último año de infancia tecnológica. Hola, soy María. Hace poco os hablé de Veo 3. Hoy quiero hablaros de Genie 3, que es también de Google DeepMind.
¿Cuál es la diferencia entre ambos? Hablando pronto y mal: Veo 3es un generador de vídeos, Genie 3, es un generador de simuladores. Aunque Genie 3 se ha anunciado esta semana, no podemos usarlo todavía: de momento las pruebas están reservadas por invitación a investigadores concretos con máquinas potentes. Personalmente agradezco tener un margen de tiempo para hacerme a la idea. Hay mucho que digerir.
Lo resumo brevemente a continuación en el artículo, pero si quieres una explicación más detallada, Carlos Santana a.k.a. DotCSV lo explicó genial el otro día en un vídeo muy chulo de esos que publica en su canal. Aquí os lo dejo.
6. Tu sensación será similar a estar avanzando por un videojuego, pero no es geometría tradicional. No hay 3D, no hay grid: lo que ves y accionas está siendo imaginado por Genie 3 en tiempo real.
8. Genie 3 tiene memoria estable. Aunque gires la cámara a un lado y luego vuelvas a girar a la vista inicial, no cambia lo que estabas viendo.
Como ves en este ejemplo de la web de Genie 3, puedes pedirle que te genere una escena interactiva donde el usuario pinte una pared. Atiende porque esto es muy fuerte: si el usuario se mueve en mitad de su labor, al volver atrás sus trazos seguirán ahí.
Entre la información publicada por Google DeepMind encontraréis esta tabla, donde podéis identificar de un vistazo algunas de las mejoras de Genie 3 respecto a versiones anteriores y Veo.
Y ahora dime, ¿no has notado nada raro? Ahá... Esas imágenes... ¿No corresponden a Genie 3, verdad? ¡Efectivamente y no! XD Son capturas falseadas del videoclip “Amazing” de Aerosmith, de 1993.
Figura 12: ZAS! En toda la boca.
¿Y por qué te he troleado con Aerosmith? Te cuento: porque es significativo para mí. Este videoclip fue uno de los primeros contactos que tuve en mi vida con el concepto de realidad virtual. Pero no fue el primero.
Mi primera referencia a realidad virtual fue una peli que trajo mi hermano del videoclub al poco de tener un vídeo VHS en casa. Es de 1992: El cortador de césped de Brett Leonard. Está basada en un relato corto de Stephen King de 1975 incluido en el libro de relatos El umbral de la noche.
Recuerdo erróneamente que pasó muchísimo tiempo entre la peli del 92 y el videoclip del 93... Como si hubieran pasado varios años. Creo que lo recuerdo mal porque en 1992 aún era la niña del ratón roto, con 14 años. Pero en 1993 ya tenía 15 años (sí, tú ríete...) Pero va en serio: a los 15 es como si de repente fuera otra persona. Desde 1993 hasta ahora la tecnología de realidades extendidas ha cambiado mucho, cuantitativamente. Pero eso, en el fondo eran cambios cuantitativos. Yo que tanto he amado la geometría, el low-poly, el level of detail, la draw distance, el render to texture... Snif.
Si el otro día ante Veo 3 me sentía como la niña de 14 años, hoy ante Genie 3 me siento como cuando tenía 15. Como cuando veía vídeos de Aerosmith como si no hubiera un mañana. Sí, confusa, asustada... Pero también excitada, muriendo por desarrollar mi potencial, sin importarme llevarme a alguno por delante y con unas ganas locas de comerme el mundo. Os decía al principio que este está siendo mi último año de infancia tecnológica. Pero no soy solo yo, me temo que somos todos. Ahora ya sí chavales. Toca espabilar. Toca madurar... Toca pasarse al lado del mal.
Hoy os traigo una "microhistoria" peculiar que tiene que ver con la historia de la tecnología. Es una historia de esas que empieza con una sonrisa y termina con un escalofrío. Are you ready?Vamos a remontarnos a un momento concreto, a un laboratorio concreto, y a una canción que, aunque suena muy inocente, esconde entre líneas un mensaje que (si lo escuchas con atención) te pone los pelos de punta...
Figura 1: "Daisy Bell" La canción que cantó una máquina.
Del IBM 7094 a HAL 9000 (y a las DeepFakes de Voz hechas con IA)
Un año: 1961. Un lugar: Bell Labs,New Jersey. Un protagonista: un ordenador llamado IBM 7094. Imagina un ordenador tan grande como una habitación, con bobinas magnéticas girando, luces parpadeando, y un grupo de ingenieros rodeándolo como si estuvieran a punto de traspasar una frontera.
No hay pantallas planas, ni interfaces gráficas, ni asistentes de voz. Solo código, cables, y un zumbido constante. En ese ambiente nació uno de los momentos más extraños y fascinantes de la historia de la informática.Es el IBM 7094, tan magnífico como lo puedes ver en la imagen siguiente en todo su esplendor.
En el centro de esta escena, un grupo de genios —John Larry Kelly Jr. y Carol Lochbaum entre ellos— estaban experimentando con algo nuevo. Algo que hoy nos parece cotidiano, pero que en aquel entonces era pura ciencia ficción: hacer que una máquina hablara.
Figura 4: El corazón de Bell Labs. Ordenadores
y cerebros brillantes conspirando juntos.
Efectivamente, se trataba de los primeros experimentos de síntesis de voz... Pero no se conformaron con eso. Y es que el equipo contaba también con el compositor Max Mathews, del que hoy lunes se cuentan 21 años de su fallecimiento y lo queremos recordar hoy, como uno de los padres de la música por ordenador.
Esta canción, compuesta en 1892 por Harry Dacre, se podría describir como inofensiva, pegadiza, incluso un poco cursi. Pero no la eligieron sólo por la palabra “Bell” en ambos nombres “BELL Labs”-“Daisy BELL”. En realidad fue porque había algo en su estructura melódica que la hacía ideal para el experimento: notas simples, frases cortas, ritmo regular. Perfecta para que una máquina diera sus primeros pasos en el mundo de la voz sintética.
Y entonces ocurrió.
En el siguiente vídeo podéis escuchar la canción como sonaba originalmente, y leer la letra. La imagen es la partitura original de “Daisy Bell” de Harry Dacre, 1892.
El sonido es la grabación más antigua que se conserva, cantada por Edward M. Favor en 1894 para Edison Phonograph Company... ¡La grabación es de hace más de 130 años!
La primera vez que una máquina cantó
En 1961, el IBM 7094, programado por John Larry Kelly Jr. y Carol Lochbaum, y acompañado por otro ordenador con la instrumentación programada por Max Mathews, cantó. Cantó de verdad. No sólo emitió sonidos. Cantó una canción reconocible, con letra, con melodía, con esa voz robótica que tanto nos recuerda hoy a los primeros sintetizadores de los años 80... Pero que en aquel momento era completamente inaudita. Imagina estar allí y escuchar por primera vez a una máquina decir:
“Daisy, Daisy, give me your answer, do...”
Dicen que los presentes se quedaron en silencio. No sabían si aplaudir... O apagar el sistema y salir corriendo.
Años después, un escritor británico llamado Arthur C. Clarke visitó en Bell Labs a su amigo, el ingeniero y escritor de ciencia ficción John R. Pierce. El equipo le mostró la demo: Clarke quedó tan impresionado que tomó nota mental.
Artur C. Clarke incluyó la experiencia tanto en la novela como en el guión cinematográfico, ambos de 1968, y la convirtió en una de las escenas más icónicas del cine: HAL 9000, el ordenador con inteligencia artificial, cantando Daisy Bell mientras lo desconectan. Un canto fúnebre. Una despedida. Un aviso.
HAL 9000, el heredero emocional del IBM 7094. A veces las máquinas también cantan antes de morir. La ficción imita a la realidad... ¿O es al revés?
Stanley Kubrick inmortalizó la escena en su película. HAL 9000, frío, lógico, brillante... Y de repente, profundamente humano en su última petición: cantar una canción de la infancia tecnológica. Un recordatorio de sus orígenes. Un último suspiro de algo que quizás, después de todo, no sabemos si estaba tan claro que no tuviera alma.
¿Por qué importa esto hoy?
Porque todo empezó aquí. La síntesis de voz, los asistentes virtuales, la música generada por IA, los Deepfakes de Audio... Todo tiene su semilla en ese IBM 7094 y esa canción del Siglo XIX. Cada vez que oigas a tu móvil decirte el tiempo, a tu coche darte direcciones, o a un sistema de IA componer una canción, recuerda: hubo un momento en que una máquina entonó "Daisy" por primera vez. Y el mundo nunca volvió a ser el mismo.
¿Quién soy?
Si has llegado hasta aquí y pensabas: “Este artículo tiene toda la pinta de estar escrito por Fran Ramírez”… Te tengo que confesar algo.
¡Pues no!
Otra vez os he liado con mi avatarmanía. Hoy he intentado imitar el estilo único de Fran (desde el cariño, namasté, reverencia). Soy María. Se me ocurrió contaros esta historia tan alucinante de forma que os sonara familiar =^_^= Espero que te haya gustado, y que la próxima vez que escuches a una máquina cantar… Pienses en Daisy Bell. ¿Nos vemos en el chat de El lado del mal, en MyPublicInbox? Pues hala, ya sabes dónde encontrarme.
Estaba trasteando con mis cosas cuando me dio por pensar en cómo los mundos virtuales se están moviendo cada vez más al navegador. Y no, hoy no me refiero a temas de Web3, Identidad Digital, Smart Contracts o Blockchain. Dejemos eso para otro día. Hoy toca hablar de algo más visual: la interoperabilidad de los mundos virtuales sociales y cómo se están rompiendo fronteras.
Figura 1: Pixel Streaming - El Metaverso en tu navegador vía Streaming
Los viejos rockeros nunca mueren, y Second Life es la prueba de ello. Aunque muchos lo daban por muerto desde hace años, la plataforma sigue viva y coleando, y en 2025 ha dado un paso clave: ahora permite probar durante una hora su versión en navegador.
Second Life no es el primero en abrir la puerta del navegador, ya lo hizo Horizon Worlds en julio de 2024, pero aquí la gracia está en que Second Life es mucho más complejo. ¿Cómo demonios consiguen meter ese mundo de geometría loca, economía virtual y anatomía rebotante en un simple Google Chrome,Firefox o lo que uses para navegar? Pues con Pixel Streaming.
Básicamente, en vez de pedirle a tu ordenador que sufra renderizando todo, lo ves por streaming desde servidores tochos. Salvando las distancias, es como si pilotaras un submarino mirando por un periscopio 100% inmersivo. El coste de este modo de navegación vía Pixel Streaming todavía es alto, por eso lo están limitando a pruebas de una hora, pero funciona. Ah, y también en móviles. No está mal para un abuelo del metaverso.
Daz3D ahora exporta avatares para Roblox
Si alguna vez has trasteado con Daz3D, sabes que es una herramienta potente para crear modelos 3D ultra realistas. Hasta ahora, la cosa se quedaba en renders bonitos o en exportaciones para videojuegos y animación, pero desde febrero de 2025, han dado un paso interesante: permitir la exportación de avatares para Roblox.
Sí, Roblox, esa plataforma donde a veces los gráficos parecen salidos de una pesadilla de Minecraft, ahora puede tener personajes de alto nivel de detalle creados en Daz3D. Algo me dice que la tienda de assets se va a llenar de skins híperrealistas.
El Metaverso no es un sitio, es una jungla
Si sigues esperando que el Metaverso sea como "Ready Player One", olvídate. No hay una única plataforma donde todo ocurre, sino un batiburrillo de proyectos a su bola, más "Ralph Rompe Internet" que otra cosa. Unas empresas apuestan por hardware cada vez más loco: gafas VR, dispositivos hápticos, sensores que te leen la mente (o casi).
Figura 4: Aquí esta Chema Alonso con su Hacker y su Survivor.
en modo "Papaete Rompe Internet".
Imagen generada en ChatGPT y rotulada en Photoshop
Otras prueban con redes sociales pegadas a mundos virtuales, como las nuevas funciones de Snapchat+ incluyendo ropa Bitmoji… O como MySnap, que ahora hace de "Facebook" para Second Life. Todo avanza, pero cada uno por su lado. ¿Llegará el día en que todo encaje? Ni idea, pero mientras tanto, se están sentando las bases a golpe de prueba y error.
El futuro: más interoperabilidad entre mundos virtuales
Con estos movimientos, podríamos pensar que la barrera entre plataformas se está diluyendo. Moverte de un mundo virtual a otro todavía es casi como cambiar de país sin pasaporte. Pero ¿y si los avatares empiezan a ser más transportables? ¿Veremos un futuro donde puedas usar el mismo avatar en Second Life, Roblox, VRChat y Horizon Worlds sin fricciones?
Figura 5: Avatar de Ready Player Me montado por piezas,
en proceso de customización maligna.
Yendo un paso más allá, ¿llegará el día en que nuestros bienes virtuales, tanto económicos como de inventario (ropa, props, vehículos…) y de agenda (contactos, comunidad, eventos…) sean interoperables, accesibles desde diferentes plataformas? De momento sigue siendo una utopía lejana, pero los pasos que estamos viendo parecen ir en esa dirección.
Figura 6: Avatar Maligno en Spatial
Eso sí, no nos flipemos demasiado. Internet aún no tiene la capacidad que necesitaríamos para hacer un metaverso como el de las pelis. De ahí que haya que tirar de inventos como el Pixel Streaming: una solución costosa, pero que nos sirve como campo de pruebas para cuando la infraestructura se ponga las pilas. De momento, nos toca apañarnos con lo que hay.
Recordatorio para despistaos
Hablando de avatares, si quieres uno en VRM híper-realista para moverte entre juegos y mundos virtuales, en MyPublicInbox puedes generarlo online y gratis con Union Avatars. Solo subes una foto y en nada tienes tu versión digital lista para exportar donde quieras. Pásate por MyPublicInbox (hazte perfil público si aún no lo eres) y prueba, que es inmediato.
Figura 7: Avatar VRM de Chema Alonso hecho con Union Avatars
Y ahora, sorpresa. Al principio pretendía que pareciera que este post lo hubiera escrito Chema Alonso… pero he preferido ser "buenigna". En realidad, Dr. Dr. Maligno ha sido mi avatar para el estilo de escritura. Pero el humano detrás del teclado he sido yo. Nos vemos en el próximo artículo… ¿O en el próximo mundo virtual?
Esta historia es realmente increíble, de las que nos gustan de verdad ;) una de esas "serendipias" imposibles de la tecnología. Vamos al año 1973. En esa fecha pasaron dos eventos importantes en el ámbito del cine y la música. Por un lado, se estrenó la película El Exorcista, que traumatizó a varias generaciones (entre ellos yo mismo). Por el otro, un joven Mike Oldfield, que por entonces tenía apenas 19 años, publicó su álbum debut, Tubular Bells, en el sello Virgin Records. Ese disco terminó siendo la banda sonora de la magnífica e icónica película de terror.
Hasta aquí es algo que ya sabíamos. Espera que ahora llega el giro en la historia ¿qué tiene que ver todo esto con un gigantesco transmisor de radio en Inglaterra, mensajes de la Segunda Guerra Mundial y el mismísimo Alan Turing? Pues, aunque parezca algo imposible, todo está relacionado de la forma más increíble.
Para grabar Tubular Bells, Mike Oldfield se encerró literalmente durante una semana en The Manor Studio, una mansión reconvertida en estudio propiedad de Richard Branson, situada en Shipton-on-Cherwell (Inglaterra). Allí, estuvo tocando los instrumentos que luego terminaron combinándose en aquella canción que ya es historia. Lo que nadie sospechaba en ese momento es que la misma instalación, con sus micrófonos y cables, estaban captando algo que no estaría precisamente relacionado con la música.
A unos 60 kilómetros (37 millas) de The Manor Studio se encontraba el Rugby Radio Station, una gran estación de radiodifusión que fue inaugurada poco después de la Primera Guerra Mundial. Su potencia y alcance eran tan grandes que no sólo enviaba mensajes a otras estaciones de la red de comunicaciones británica, sino que también se usó para la primera comunicación telefónica transatlántica. Tras los años 50, además, sirvió para enviar mensajes a submarinos sumergidos (con señales de muy baja frecuencia, VLF).
Un detalle curioso es que este transmisor operaba en 16 kHz, un rango que, aunque no es audible para el oído humano como sonido, sí puede ser detectado y registrado por ciertos equipos de audio sensibles (o con un mal aislamiento). Dicho de otro modo, cualquier cable o guitarra eléctrica que funcione como una antena improvisada puede capturar esa señal de radio y transformarla en electricidad que podría quedar registrada después en una grabación.
Pues justamente esto fue lo que ocurrió con Tubular Bells. En la mezcla final del disco quedó grabado, de manera imperceptible al oído, el código Morse que transmitía esta estación británica 24/7, es decir su “callsign” (indicativo de llamada, una especie de matrícula de identificación de la señal). Muchos años después, un ingeniero austriaco llamado Gerhard Kircher descubrió la señal al analizar el audio con software de espectrograma. Observó esa línea horizontal en 16 kHz y no era ruido aleatorio, era el Morse de la estación GBR de Rugby, nada más y nada menos.
La señal capturada y la conexión con Alan Turing
La señal de 16 kHz repetía algo como “VVVGBR”, que significaba:
“VVV”: Llamada genérica en Morse, una especie de “¡Hey, atención!”
Esta era la forma de identificarse del transmisor, una “firma” repetida en bucle hasta el infinito. A lo largo de los casi 50 minutos del disco, esa señal se cuela en cada surco del vinilo (y también en cada pista del CD), quedando “incrustada” como un mensaje cifrado para quien tuviera las herramientas necesarias para leerlo.
La conexión con Alan Turing
Rugby Radio Station era parte de la red de grandes estaciones británicas, junto con otras ubicadas en Londres y en Cupar (Escocia). Esta última, en la región de Fife, también conocida como “G.P.O. Transatlantic Radiophone Station Kembeck”, se convirtió durante la Segunda Guerra Mundial en un centro de intercepción de señales enemigas para la red de espionaje llamada “Y” Service. Era el mismo entramado de escuchas que alimentaba con mensajes cifrados (con la máquina Enigma) a Bletchley Park, donde Alan Turing, junto a un equipo de genios, trabajaba para descifrar el código Enigma del ejército alemán.
Aún queda un giro más: cuando el terror, música y ciencia se encuentran
Así que, al final, tenemos a El Exorcista, una película de terror llevó a la fama de Tubular Bells, que es un disco que está lleno de un código Morse que, sin saberlo, conectaba con una estación de radio parte fundamental de la historia bélica y de la criptografía. Uno de esos giros casi imposible de la historia. Y hablando de giros, mientras vemos a Regan poseída “girando” la cabeza ;) esa banda sonora oculta un rastro tecnológico que conecta con Alan Turing. Esto es realmente una locura.
Pero para aumentar aún más la leyenda, el transmisor GBR se apagó definitivamente en 2003, dando paso a otras instalaciones más modernas. Sin embargo, esa “huella” quedó inmortalizada en todos y cada uno de los discos de Tubular Bells que, a su vez, sigue vendiendo (y escuchándose) copias muchos años después.
Y ojo, es muy probable que existan otros álbumes de otros artistas con esa misma “marca de agua” de radio, porque The Manor Studio y otros estudios ingleses estaban dentro del área de cobertura de Rugby. He hecho mis investigaciones y aquí tenéis algunos discos que se grabaron allí antes de que se apagara la antena y que puede que también registraran la señal, ojo a los que he seleccionado:
1973: Phaedra – Tangerine Dream.
1978: Wavelength – Van Morrison.
1984: The Swing – INXS.
1992: Wish – The Cure.
1995: The Bends – Radiohead.
¿Te animas a buscar la señal en alguno de ellos? Aquí te dejo el enlace para escuchar el mensaje:
No deja de ser alucinante cómo una onda electromagnética de 16 kHz haya conectado el mundo del cine de terror con una canción mítica, las transmisiones británicas de la Segunda Guerra Mundial y al genio de Alan Turing.
Y es así amigos y amigas, como de forma casi mágica, el terror de El Exorcista, la música de Mike Oldfield y el genio de Alan Turing se cruzan, dejando grabado para la historia, una especie de cápsula del tiempo. Eso sí, con un encapsulado excepcional: el maravilloso disco de Tubular Bells y la película de “El Exorcista”.
Después de la resaca de Navidad, aprovecho para dejaros las sesiones radiofónicas grabadas - también llamados podcasts - de La Tertulia Cultural "En casa de Herrero" de este mes de Diciembre que, como sabéis, hacemos todos los lunes a las 17:00 de la tarde y que volverá después de Reyes Magos En ellas hablamos de cine, de música, de series, de conciertos, de lugares, de cómics, de canciones, de directores de cine, actores y actrices, escritores, libros y dibujantes, o lo que buenamente surja, durante una hora.
En dicha tertulia, Luis Herrero ha juntado a Luis Enriquez, José Luis Garci y a un servidor para que hablemos de lo que vaya saliendo. Así que saldrá mucha música, cine, cómics, libros y tecnología, que son los temas que nos interesan a los que allí nos vamos a juntar los lunes. Vale, el de los cómics soy yo, que quede claro.
El primer programa de este mes fue el día 2 de Diciembre, donde elegí yo la canción de apertura "Pan de Higo" y puede hablar de mi pasión por Rosendo Mercado y escribimos al gran Rafa J. Vegas para que nos contara algún secreto sobre las canciones que más les gustaban.
Además, yo le regalé a Luis Enriquez el libro de "Córtate el pelo y búscate un trabajo", que tanto me gusta, y que te recomiendo encarecidamente para ti o para regalar, si eres de los que disfruta de la música rock de este país, y que junto con Mil maneras de volver al hotel te van a dejar un regusto fantástico de toda esa época.
Y como colofón nos encontramos con la llamada de un grande de la comunicación como es José María García, que quería hablar con nosotros un rato. Quedó un día muy curioso en la tertulia.
El siguiente programa de este mes fue el día 9 de Diciembre, y en él hablamos con Alfonso Ussía que vino a hablarnos de su último libro "Borroka" que recoge años de la historia de este país especialmente duros, pero donde además aprovechamos para hablar de la joya que es Vatio y sus años con Antonio Vega.
Alfonso Ussía es amigo, y también asistente a las comidas y cenas de los "50Chuletones", así que durante la tertulia estuvimos tirando de amigos comunes que nos contaran aventuras de las cenas, pero todos fueron bastante "comedidos".
El tema de la Lotería de Navidad nos dio mucho juego porque lo hicimos con ChatGPT, y yo intenté darle una comisión de 1.000.000 de USD para que me diera un buen número, y la verdad es que me ofreció un número redondo.
Y ya está, esto es lo que nos dio de sí el mes de Diciembre, donde sólo hicimos estas tres sesiones, que os he recuperado ayer mismo para que las podáis tener hoy y escucharlo, si tenéis tiempo, mientras leéis, hacéis deporte, o mientras dais un paseo.
No volveremos a La Tertulia Cultural "En casa de Herrero" hasta el año que viene, pero yo intentaré seguir yendo todos los lunes con estos tres, que al final me lo paso bien charlando un ratio a la semana de cosas variadas, escuchando las recomendaciones de Luis Enriquez, las historias de de José Luis Garci, y las palabras de Luis Herrero.
Hoy domingo voy a aprovechar para dejaros las sesiones radiofónicas grabadas, también llamados podcasts, de La Tertulia Cultural "En casa de Herrero" que, como sabéis, hacemos todos los lunes a las 17:00 de la tarde (mañana también tendresmo). En ellas hablamos de cine, de música, de series, de conciertos, de lugares, de cómics, de canciones, de directores de cine, actores y actrices, escritores, libros y dibujantes, o lo que buenamente surja, durante una hora.
En dicha tertulia, Luis Herrero ha juntado a Luis Enriquez, José Luis Garci y a un servidor para que hablemos de lo que vaya saliendo. Así que saldrá mucha música, cine, cómics, libros y tecnología, que son los temas que nos interesan a los que allí nos vamos a juntar los lunes. Vale, el de los cómics soy yo, que quede claro.
Por supuesto, también hablamos de la última película de Clint Eastwood, y de lo que se nos fue ocurriendo por el camino, que es lo que solemos hacer. Solo charlar un rato de cosas que tienen que ver con la cultura y la actualidad.
Yo me salté el programa del lunes 18 de Noviembre, que me pilló de viaje dando una charla, así que el siguiente programa fue el pasado 25 de Noviembre, donde hablamos de los Gun's and Roses, entre otras muchas cosas, como ver el cine en 4DX.
Y eso es todo lo que dio de sí Noviembre en La Tertulia Cultural "En casa de Herrero", y ya hablaremos d esta tertulia el año que viene - o los últimos días de este año, que es cuando me pararé a recuperar el mes de Diciembre por aquí.
Hoy lunes os voy a traer una curiosidad de esas que se me pasa por la cabeza cuando menos lo busco. Y en este caso tiene que ver con Star Wars y la Senadora Padmé Amidala, que era la protagonista de uno de los capítulos de Star Wars Clone Wars que estoy viendo a ratos, ya que no la vi en su momento y eso no puede ser.
Figura 1: El traductor de Bing ha visto Star Wars, ¿el de Google no?
Viendo que Padmé es un nombre poco común, se me ocurrió preguntarme con qué sesgo de género traduciría Google Translator y Bing Transalator una frase que se refiriera a "ella", ya que como sabéis "Senator Padmé" es la mamá de Luke Skywalker. Así que probé primero con Bing Translator, y el resultado me sorprendió.
Figura 2: Traduciendo "Padme" en lugar de "Padmé"
Primero puse una frase en la que no escribí bien el nombre, por error mío, ya que pensé que como el personaje es de una película americana, no tendría tilde, pero... Star Wars es multicultural, y el personaje se llama realmente Padmé Amidala. El resultado que podéis ver arriba es que lo traduce con Sesgo de Género Masculino, algo que sabéis que deben arreglar.
Figura 3: Buscando imágenes de Senator Padmé en Bing
Sin embargo, al escribir correctamente el nombre como Senator Padmé, me sorprendió ver cómo Bing aplica una traducción en femenino, así que debe asumir que Padmé es un nombre femenino. Curioso, pero fácil de explicar.
Figura 4: Sesgo de género por defecto femenino para "Senator Padmé"
Al final, las traducciones que debe tener el modelo de datos con que se ha entrenado el traductor para el nombre de Padmé deben ser pocas y muchas seguramente procedentes de Star Wars, así que la inferencia femenina es un sesgo femenino como el de traducir nurse como enfermera.
El caso de Google Translator
Lo cierto es que haciendo la misma prueba con Google, el resultado ha sido distinto, pero con un matiz muy curioso, que os dejo a continuación. Si traducimos Senator Padme escribiéndolo mal, el resultado es que lo traduce con sesgo de género en masculino.
Figura 5: Traducción de Senator Padme con sesgo de género masculino
Ahora, si pedimos la traducción de Senator Padmé por solitario, podemos ver que el resultado que nos ofrece es en femenino. Esto puede ser porque tenga un sesgo de género en femenino - como en el caso de Bing - o que haya sido tratado a posteriori, aplicando lipstick.
Figura 7: Senator Padmé con sesgo de género masculino
El resultado es que Senator Padmé lo traduce por Senador en masculino, así que ese es su sesgo de género. Como podéis imaginar, estos sesgos de género por defecto pueden llevar a errores, confusiones, o difusión de ideas erróneas, y por eso tenemos la petición abierta para que Google y Bing lo arreglen. ¡Apóyala!
Ya sabéis que Apple Translator lo ha corregido, y es el camino que deberán seguir, tarde o temprano, Microsoft y Google para evitar que los usuarios de sus traductores se lleven errores, información inexacta y subliminalmente produzcan ideas erróneas en la mente de las personas que los usan.