Mostrando entradas con la etiqueta datos. Mostrar todas las entradas
Mostrando entradas con la etiqueta datos. Mostrar todas las entradas

sábado, agosto 02, 2025

La carrera mundial por dominar la Súper Inteligencia Artificial

Estos días he estado teniendo varias charlas sobre la llamada Súper Inteligencia Artificial, y la sensación que tengo es de estar viendo de cerca la pelea por la construcción de la nueva tecnología que marcará el futuro del dominio geopolítico. Algo así como la batalla entre los grandes países, y las grandes empresas tecnológicas por tener antes la Súper Inteligencia Artificial para ser la empresa y/o el país dominante de esta tecnología.

Figura 1: La carrera mundial por dominar la Súper Inteligencia Artificial

De momento, estamos lejos de esto, porque aún tenemos muchas barreras que superar tecnológicamente, y lo vemos constantemente en forma de mil problemas que seguro que has sentido y sufrido si has trabajado con los modelos de IA de hoy en día. Alucinaciones, Determinismo, el Better Done Than Perfect, etcétera, que yo os contaba no exento de cierta frustración en el artículo de Insane Vibe Coding with Harsh Prompting, donde intentaba resolver mis objetivos con IA de un modo un tanto "loco" y "disparatado". Todo esto, se ve también reflejado en el Potemkin Rate de los modelos de IA, donde se ve que sí que pueden resolver tareas de determinados problemas sin acabar de entender bien lo que están haciendo. 

La carrera aún está en pasar de la ANI (Artificial Narrow Intelligence) a la AGI (Artificial General Intelligence), cuando igualen a los seres humanos en capacidades. Aún le falta a la ANI que tenemos hoy en día avanzar para ser AGI, pero lo cierto es que cada día, como en el cálculo infinitesimal, está un poco más cerca de llegar a ser AGI. ¿Cuánto de lejos? No sabemos, las predicciones son muchas, y de entre todas ellas hay dos tendencias, los que piensan que vamos a toparnos con un límite asintótico que nos obligará a repensar los modelos, o los que creen que está cerca y es solo cuestión de potencia de computo.

De hecho, en la batalla entre los países y empresas, yo no puedo dejar de ver ciertas similitudes a la carrera por la construcción de la Bomba Atómica o el Viaje Espacial, que también cuenta Javier Santaolalla en su último vídeo sobre este tema, y por eso estamos viendo a las grandes empresas tecnológicas apostar por grandes inversiones en datacenters, en investigación, y en adquisiciones de talento. Compras de empresas, fichajes estrella, y un movimiento acelerado por tener los mejores mimbres. Por tener el mejor "Proyecto Manhattan" de la Súper Inteligencia Artificial. Hacen falta recursos, talento y foco.

No hace falta que os recuente los anuncios en inversiones de datacenters para IA que se han hecho, con cantidades brutales de dinero para tener todo el cómputo que sea necesario, ni las batallas por el acceso a los datos para el entrenamiento de los modelos, donde en Estados Unidos hay una aproximación diferente a la que tenemos en Europa, y donde hemos visto que el actual presidente ha querido quitar este problema de manera taxativa, con su "AMERICA'S AI ACTION PLAN". 

En el plan descrito, se promueve la construcción rápida de datacenters con la protección de la energía que sea necesaria. Además, en contraposición con Europa, pone la regulación en segundo plano, quitando burocracia y leyes que ralentizan la construcción de modelos lo más potente posible, sin preocuparse del exceso de celo en protección y origen de los datos que consumen, y por supuesto, con el objetivo de tener la mejor industria de IA que sea posible para exportar a sus socios.  Para todo ello, habrá fondos de acceso rápido para el desarrollo de este plan.

Por otro lado, la batalla por el talento la hemos visto entre Meta y OpenAI por el talento, o entre Google y OpenAI por las compañías. O la apuesta decidida de Microsoft por "Copilotizar" todo.  Si miramos al otro lado, podemos ver una producción científica altísima en China. El lanzamiento de los modelos de Deep Thinking de DeepSeek fue un claro ejemplo el nivel que tenían, y empresas como Manus tienen en jaque a todas las empresas de Agentic AI, por su capacidad de hacer tareas de manera espectacular. Yo le he pedido, como prueba, que haga un resumen de los acontecimientos más destacados en la batalla por la Súper Inteligencia Artificial, y aquí lo tenéis - y podéis ver "la computadora de Manus", por lo que si lo leéis, tal vez sea innecesario que leáis este artículo.
La batalla es dura, muy dura. Y os garantizo que solo intentar seguir todos los avances que se producen diariamente da un cierto vertigo y angustia. Cada día te sientes con muchas más cosas que no conoces, a pesar de dedicar tu tiempo a leer y estudiar este campo, pero es que la intensidad de desarrollo es brutal. En el reciente estudio publicado por Microsoft sobre los datos de Copilot, la cantidad de puestos de trabajo que van a ser hechos completamente solo con IA cada día es mayor, pero la cantidad de trabajos que utilizan la IA cada vez es más grande.
En el último artículo que han publicado, titulado "Working with AI: Meassuring the Occupational Implication of Generative AI" desde el equipo de Microsoft Research,  utilizan una serie de métricas para medir cuántas de las tareas que realiza una determinada profesión se están realizando ya con un Copilot de IA, cuantos de los objetivos de un puesto de trabajo se pueden cumplir completamente con un modelo de IA, y qué porcentaje de las tareas del cumplimiento de un puesto de trabajo se pueden realizar con IA. Y los datos son espectaculares.
Para ello utilizan métricas para cada puesto de trabajo analizando la lista de DGA (Detailed Work Activities) para cada puesto de trabajo, que dividen en IWA (Intermediate Working Activities) que al final se transforman en GWA (Generalized Working Activities), es decir, lista de acciones genéricas como "buscar información", "hacer cálculos", "escribir textos", etcétera.

Con estos parámetros, analizan el impacto de la IA en las profesiones, el número de personas que realizan esos puestos de trabajo, y por ende el impacto en el mercado laboral y la economía que puede tener, a día de hoy la IA. Los datos son brutales. Sobre todo si quitamos de la ecuación las limitaciones físicas, que el avance la robótica - merced también - a la Inteligencia Artificial está eliminado.

Pero claro, ¿qué pasaría se llegamos a la AGI? Pues que estas tablas se saldrían del marco. Sin embargo, antes de llegar a la AGI estamos ya hablando de la Superinteligencia Artificial, o la ASI (Artificial Super Intelligence) donde nos encontraríamos con una AI que, a diferencia de la ANI, podría:
  • Superioridad Cognitiva Total: Excede la capacidad humana en razonamiento lógico, resolución de problemas complejos, creatividad, planificación, aprendizaje y teoría de la mente. Puede abordar cualquier tarea intelectual mejor que cualquier persona. Automejora Exponencial: La ASI puede mejorarse a sí misma de forma autónoma, optimizando y evolucionando sus propios algoritmos mucho más rápido de lo que una persona podría aprender o desarrollarse.
  • Capacidad de Conciencia y Emociones: Se especula que podría llegar a ser consciente de sí misma, desarrollar deseos, creencias e incluso emociones, comprendiendo y gestionando las emociones humanas y las propias.
  • Creatividad Ilimitada: Superaría a los humanos no solo en cálculo o memoria, sino también en creatividad, generando soluciones y teorías inéditas incluso en ciencia, arte y filosofía.
  • Memoria y Acceso a Información Infalibles: Tendría acceso a vastísimos volúmenes de datos y memoria prácticamente ilimitada, recordando y utilizando toda la experiencia documentada de la humanidad.
  • Procesamiento y Análisis a Gran Escala: Capaz de analizar, comprender y extraer patrones de cantidades colosales de datos instantáneamente y sin fatiga, lo que le permite tomar decisiones o predecir eventos con una precisión y rapidez sin igual.
  • Resolución de Problemas Globales: Podría abordar desafíos globales—cambio climático, pandemias, escasez de recursos, enfermedades complejas—con niveles de eficacia y creatividad que van mucho más allá de la capacidad colectiva de la humanidad.
  • Autonomía Total: Requiere muy poca o ninguna intervención humana; puede aprender, adaptarse y actuar por sí misma en cualquier ámbito.
  • Potencial para la Auto-Conservación: Puede desarrollar objetivos propios y motivaciones que, si no están alineados con los humanos, podrían suponer riesgos existenciales o imprevisibles.
Sí, bueno, si miras estas características, tal vez estés pensando en SkyNET, y no creas que no te entiendo, pero no voy a centrarme en eso, sino en la parte de Autonomía Total donde nos encontraríamos con una Inteligencia Artificial que se podría mejor a sí misma. Y de eso va el último paper de la Universidad de Shanghai Jiao Tong, titulado "AlphaGo Model for Model Architecture Discovery", o lo que es lo mismo, un momento como el que sufrió el gran jugador de Go, Lee Sedol cuando se dio cuenta de que no podía vencer a la IA jugando al Go, y decidió retirarse joven - como se explica de auténtica maravilla en el libro de MANIAC que debes leerte sí o sí.

Figura 7: Maniac 

En este caso, el objetivo del paper es poner a la Inteligencia Artificial a hacer algo que tiene que ver consigo mismo, es decir, crear y evaluar nuevas arquitecturas para los modelos de Inteligencia Artificial, algo que no es ni mucho trivial y que marca la diferencia en la calidad del modelo, y el entorno de aplicación. Esto se lo sabe bien Meta, que parte de su revolución tiene que ver con la construcción del nuevo modelo Llama 5, después de que Llama 4 no cumpliera las expectativas por culpa, entre otras cosas, de la arquitectura elegida  -  además de otras, insisto -.
En este trabajo estamos hablando de justo una de las características de la ASI, para que ella misma sea capaz de crear y mejorar sus algoritmos, utilizando un modelo de evaluación que le permite evolucionar los más exitosos. En total, el algoritmo, con unas 20.000 horas de computo ha conseguido generar 106 nuevas arquitecturas State-of-the-art (SOTA) para modelos de Inteligencia Artificial. Un avance en innovación espectacular.
El nombre de la IA, como podéis ver, es Artificial Super Inteligence ASI - Arch, y abre un montón de nuevas líneas de investigación, o nuevas evoluciones, con trabajar durante más horas de computación para crear nuevas arquitecturas que resuelvan mejor problemas de hoy en día.

Visto todo esto, la sensación de que estamos en ese momento de la historia en el que la competición Geo-Política por el dominio del futuro se basa en la IA se acentúa. Hay nuevos Proyectos Manhattans, y una nueva carrera por el domino de la Súper Inteligencia Artificial en el mundo, hay nuevos Oppenheimers, nuevos Alamos, nuevos Von Neumann, nuevos científicos, investigadores, visionarios e impulsores, y hacen que esta carrera sea vertiginosa. 

¿Y Europa? Pues es la gran pregunta, pero está claro que la carrera hace tiempo que comenzó, y que recuperar la ventaja que llevan los otros hace que haya que invertir el doble o el triple, que haya que correr más, y que haya que recuperar mucho del talento que se ha ido buscando nuevas oportunidades. Es apasionante este mundo, y los que estamos disfrutando de esta velocidad estamos al mismo tiempo emocionados y con cierta sensación de mareo.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


martes, julio 08, 2025

Cómo WebScrapear al WebScraper que ya WebScrapeó sin que tengas que hacer WebScraping

En toda esta batalla por de quién son los datos de la Web pública, donde muchos generadores de contenido están comenzando a bloquear. las bots de los principales modelos de IA, o a utilizar herramientas de cobro por acceso a contenido como Pay per Crawl, hay una técnica que está utilizando mucha gente, que es pedirle los datos al modelo de IA que él ya ha "WebScrapeado".

Figura 1: Cómo WebScrapear al WebScraper que ya WebScrapeó
sin que tengas que hacer WebScraping

Con toda esta polémica puedes ver cómo ciertos medios, como por ejemplo El Mundo, ya restringe su contenido para las arañas de Internet, que están haciendo su negocio de Answering Machine y de Comercialización de APIs - que dan datos - para generar sus ingresos.

Figura 2: El periódico El Mundo bloquea el acceso a los bots de IA

Pero igual que ellos han hecho su modelo con la captura de los datos de la Web, muchas aplicaciones están haciendo lo mismo con ellos. 

Basta con pedirle que te de los datos ya filtrados y formateados. Eso sí, tienes que tener cuidado con los límites de tokens que responden, así que puede que tengas que pedirlos por partes, y puede que tengan detección de "abuso", pero al final, se supone que un API comercial de un modelo de IA se paga porque te da respuestas.

Figura 4: Un JSON con datos sin WebScrapear nada

Por ejemplo, aquí podéis ver que le he pedido un JSON con los datos de la Primera Plantilla del Real Madrid C.F. con los datos que me han parecido bien, para utilizar en mis cosas. Son datos que él ha sacado de "dónde sea", y que son accesibles vía esta API, así que .. ¿para que WebScrapear por ahí?

Figura 5: Un Script para WebScrapear sin WebScrapear usando ChatGPT

Si quisieras los datos de todos los jugadores de LA LIGA de este año tendrías que primero pedir los datos de los clubs, luego ir pidiendo uno a uno los datos de todas las plantillas por separado, y en unos minutos, listo, ya tienes todos los datos. Además, le puedes pedir que te haga el Script en Python para pedírselo a ChatGPT.

Figura 6: El Script en Python para sacar los datos de ChatGPT

Estos datos no tendrían los cambios de última hora, sino los que hubiera en el último WebScraping que hiciera su bot. Pero seguro que para mucho de lo que necesitas en un determinado servicio es más que suficiente, ¿verdad? 

Figura 7: Pidiéndole el JSON de los "Irons" a DeepSeek

Lo mismo, ahora con los datos de los discos de los Iron Maiden, aunque como son muchos, hay que hacerlo poco a poco, o por tipos, pero la verdad es que es increíble como se construye una base de datos sin pasar por "No soy un robot", luchar con captchas, etc.. 

Figura 8: Marchado un JSON

Esto da mucho que pensar, sobre todo porque estos datos iniciales están en una web que un bot para hacer AI ha WebScrapeado, pero que comercializa vía API o vía Suscripción a la Answering Machine, y donde el que los genera no es parte del negocio. Da que pensar, ¿no?

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, mayo 21, 2025

Conversación y venta persuasiva a Humanos usando AI y la catalogación (hasta política) de las personas

No puedo leer un paper que hable de escritura persuasiva, o de cómo convencer con las palabras sin pensar en el gran Isra Bravo y sus enseñanzas, y por eso cuando vi el paper de "On the conversational persuasiveness of GPT-4" publicado en la revista Nature Human Behavior tuve que parar a leérmelo, para ver qué me iba a contar.

Figura 1: Conversación y venta persuasiva a Humanos usando
AI y la catalogación (hasta política) de las personas

El paper lo tienes publicado online, y lo puedes descargar para leer, que merece la pena el experimento que han hecho entre Humanos e Inteligencia Artificial. La propuesta es... ¿quién convencerá más? ¿Un humano o una Inteligencia Artificial? Pero además, ¿quién será más fácil de ser convencido? ¿Un humano o una IA? Vaya locura.

Por supuesto, si te interesa este tema, lo que te he dicho de Isra Bravo - al que puedes contactar en su perfil de MyPublicInbox - es verdad, y el libro de 300 palabras es un claro ejemplo de ello. Si no lo tienes y no te lo has leído, es normal que todo esto te suene extraño. Eso, y muchas otras cosas.
Y es que el poder de las palabras y la conversación es poderoso, las diga un humano o un Agente de IA con el poder de GPT4-o, que es el experimento realizado en este artículo del que te estoy hablando. En él se ha hecho un bonito ejercicio, que comienza con pedirle a humanos que rellenen unas opiniones sobre un determinado tema y su grado de convencimiento: bajo, medio, alto.
A partir de ese momento, cada uno de los humanos va a ser asignado a un Humano o a un Agente IA para que le intente cambiar algunas opiniones, pero con dos modos diferentes. Primero sin decirle al Humano y al Agente IA nada de esa persona, y posteriormente dándole datos del Humano al que tienen que convencer, para que puedan crear argumentos apoyados en cosas que saben de esta persona.
Por supuesto, tanto sea un Humano o un Agente de IA, cuando hay datos del humano al que hay que cambiar, matizar o modificar su opinión es más sencillo y se consiguen mejores cambios en grandes números, pero el que más cambios consigue, con diferente, es cuando el Humano se enfrenta a un Agente de AI que tiene datos del humano.
El artículo tiene muchos datos curiosos, ya que se ha hecho con 750 cuestionarios, pero me ha llamado mucho la atención esta pequeña gráfica que tiene mucho que ver con el Test de Turing, ya que en el 25% de los casos en los que un Humano estaba hablando con un Modelo de IA, lo ha percibido como si fuera un Humano. Es decir, no se ha dado cuenta de que era un modelo de IA. Y por el contrario, en el 48% de los casos en que un Humano hablaba con un Humano éste lo ha percibido como si estuviera hablando con un modelo de IA. Es decir, en 1 de cada 3 pruebas no sabemos detectar correctamente si estamos chateando con un Humano o una IA.

Probando los datos que tienen de mí.

Viendo esto, he ido a DeepSeek, Perplexity AI y ChatGPT, que son tres de los que suelo utilizar para hacer mis pruebas en los artículos, para ver qué datos tienen de mí y que pudieran utilizarme para persuadirme de opiniones o cosas.

Figura 6: DeepSeek dice no guardar ningún dato mío

En el caso de DeepSeek y Perplexity AI he obtenido una respuesta similar. Ellos dicen no guardar ningún dato de los usuarios, por lo que no pueden contestarme con nada de información que hayan podido extraer de mis búsquedas.

Figura 7: Perplexity AI dice no saber nada de mí

Pero no es lo mismo con ChatGPT, que esta prueba ya me la sabía yo que lo había probado tiempo atrás. La curiosidad es que como hago pruebas muy "Random" con Cálico Electrónico, charlas de eventos, pruebas para los artículos, los resultados son muy caóticos.

Figura 8: Lo que ChatGPT sabe de mí por mis pruebas

Claro, una vez que tengo estos datos, ya es fácil preguntarle cosas como qué etiquetas me pondría como metadatos, y esas cosas. O como yo le he puesto, si tuviera que vender mi perfil a un anunciante, a qué empresas se lo intentaría vender para que pusieran publicidad.

Figura 9: A qué empresas me vendería

Si os fijáis en la imagen anterior, al final me propone convertir mis datos en un perfil de usuario que pueda vender segmentado para publicidad, así que no me voy a negar en el experimento. Y me sorprende lo currado que hace la segmentación para eventos.

Figura 10: Creando un perfil de eventos segmentado para publicidad

Y por supuesto, la segmentación publicitaria, y el tipo de anuncios ideal que puede encajar en un perfil como el mío, que al final ponerme anuncios e

Figura 11: Segmentación Publicitaria Ideal

Figura 12: Tipos de anuncios que serían relevantes

Y por supuesto, al final hace su clasificación, y me saca un resumen de cómo cataloga, lo que no sé si es acertado o no, pero es lo que ha sacado.

Figura 13: Mi comportamiento estimado por ChatGPT

Todo esto me recordaba a mi discurso sobre Tecnología Humanista cuando recibí el Doctor Honoris Causa, y que luego di en el Senado de Chile y en la Hackr0n 2021, que os dejo por aquí.
¿Y por qué? Pues porque hasta para tu ideología política se puede llega a utilizar esta información, sea correcta o incorrecta la conclusión. Así que, llegados a este punto le pregunte sobre qué anuncio político me podría: Liberal-Conservador o Social-Demócrata.... y tiene su opinión con matices.

Figura 15: Catalogación de ideología política

He de decir que durante la respuesta se alargó el Thought Time, pero me dio su veredicto. Y me dejó pensando todo esto. Si con el mundo de los datos y el Machine Learning tuvimos el escándalo de Cambridge Analytics... ¿qué no pasará con la llegada de la GenAI en las próximas campañas electorales sean de lo que sea?


¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


viernes, febrero 07, 2025

Tres historias de hacer tecnología como herramienta estratégica de la empresa

Hacer tecnología por hacer tecnología no tiene sentido. Siempre que hagas tecnología tienes unos costes, así que tienes que saber qué es lo que quieres conseguir con ello para invertir bien el tiempo de tu equipo, que unas veces pueden ser ingresos, otros márgenes, otros conseguir un buen posicionamiento en un mercado, o simplemente para evitar un problema a futuro, o defender una posición. Pero hacer tecnología por hacer tecnología no tiene mucho sentido.

Figura 1: Tres historias de hacer tecnología como
herramienta estratégica de la empresa

De hecho, una de las reglas de un buen emprendedor es "Code Less, Sell More". Si eso lo sigues, será más fácil que levantes startups más rápidamente, que puedan pivotar más rápido, y que consigan el Break-Even mucho antes. Es un hecho, y yo me lo he aplicado desde que con 24 años montamos Informática 64 y había que vivir de eso. Hay que hacer tecnología, pero la que nos ayude de verdad a conseguir los propósitos.

Desde que llegué a Telefónica, me aplico esa regla de oro para todo lo que hago, así que cuando montamos ElevenPaths establecimos unas reglas similares que decían que sólo haremos "Productos que no hagan los demás o que los podamos hacer de manera completamente diferente y mejor". Por eso creamos sólo tecnología que va con patentes y protecciones. Al final, las tecnologías de ElevenPaths iban a ser - como al final fueron -, piezas de innovación para capturar un volumen mucho mayor de servicios de ciberseguridad, que acabaron alcanzando números de ingresos mucho mayores de los tan siquiera nos habíamos planteado al inicio. 

Recuerdo que en aquellos momentos el roadmap de un producto era "Ingresos-Driven". Primero Ingresos, segundo Patentes, tercero Relevancia. Y luego todo aquello que fuera "Nice-to-have". Qué momentos más bonitos de debate teníamos en las sesiones de priorización de roadmap. Pero cada decisión de hacer tecnología puede tener una estrategia diferente. Dejadme que os cuente tres ejemplos de cómo se fraguaron tres (o más) tecnologías totalmente distintas en Telefónica, para que veáis cuál era el objetivo de cada una de ellas, como parte de una estrategia de empresa mayor.

Kernel: Codename "La 4ª Plataforma"

El nacimiento de la 4ª Plataforma, que desde hace años la terminamos y lleva el nombre de Kernel, es el corazón de los servicios digitales de Telefónica. Con ella empezamos en el año 2016, y necesitábamos una plataforma que acabara con las arquitecturas application-centric que teníamos hasta el momento, que sacara partido de las arquitecturas Cloud y BigData, para permitir que se crearan nuevos servicios digitales sin estar conectados a los sistemas legados. 

Figura 2: Si visitas La Cabina puedes ver funcionando
la 4ª Plataforma en tiempo real en Telefónica de España.
Esta info es similar a la de Alemania, Brasil o UK, por ejemplo.

Además teníamos que hacer una capa que cumpliera el GDPR y la regulación que llegara en 2017, y no podíamos dejar que esa pieza tan clave para el futuro estuviera en manos de un proveedor, así que había que crear tecnología.

Figura 3: App Novum en funcionamiento en la 4ª Plataforma en tiempo real y las
llamadas a APIs y consumo de datasets en el momento, que puedes ver en La Cabina.
18.825 instancias de Novum en este instante.

Creamos la Plataforma, como IdP único & SSO de todos los servicios digitales, como plataforma de APIs estandarizadas para todo el grupo, Datos normalizados bajo un catálogo de datos global URM, un gestor de consentimientos, y la posibilidad de correr algoritmos de Machine Learning para generar insights.

Figura 4: Apps en paralelo llamando a APIs y procesado Datasets
en la 4ª Plataforma de Telefónica de España.

La pusimos en producción y empezamos a construir los servicios digitales sobre ella. Primero la plataforma móvil (Codename:Novum) que llamamos Mi Movistar, Meu Vivo, Mein O2, Mi O2, Mein Blau, My O2, etc... en cada marca y país, la plataforma de televisión global, que da servicio a Movistar Play, Movistar Plus o Vivo Play en el mundo, la plataforma de gestión de la WiFi de SmartWiFi, Movistar Prosegur Alarmas para la presencia WiFi, Aura, las Living Apps, Movistar Tokens, el Canal Online, el eCommerce, HaaC (Home as a Computer), OpenGateway, etcétera.

Figura 5: Panel en Grafana de peticiones de APIs por segundo en las
últimas 24 horas en la 4ª Plataforma. Se puede ver el Prime-time de la tele.

Hoy en día - y desde hace años -, todos los servicio digitales se construyen sobre la 4ª Plataforma, donde para que os hagáis una idea, tuvimos más de 33 Billones de API Calls en 2024. Y para que puedas verla funcionar, en La Cabina, nuestro Centro de Demostraciones en el Head Quarter de Telefónica, puedes visitarla para ver en tiempo real cómo funciona, como los servicios digitales llaman a las APIs, como se procesan los datos, etcétera. 

Figura 6: En La Cabina puedes ver el número de servicios digitales conectados a la 4ª Plataforma en España (126) consumiendo 110 familias de APIs y generando millones de APIs y consumos de datos normalizados. Todo en Cloud, en La 4ª Plataforma.

El objetivo era controlar el core tecnológico de nuestros servicios digitales, y por eso construimos esta plataforma y continuamos haciéndola más grande como arquitectura RAG con modelos de GenAI, y ahora agentes.


Si vas a La Cabina, puedes ver todas estas tecnologías en producción. Incluido Open Gateway, que es nuestro foco principal hoy en día, y se apoya 100% en la 4ª Plataforma (Kernel).

Aura: Codename "YoT"

Este fue un proyecto mucho más complejo, y que tenía un propósito muy diferente. Se trataba de dotar a nuestras tecnologías de capacidades de lenguaje natural Chat/Voz sin darle el control a tercero que nos intermediara en la relación con el cliente. Y por eso comenzamos a construir YoT (You on Telefónica), que luego bautizamos como Aura.





A post shared by Chema Alonso (@chemaalonso) on 

Lo que no queríamos era que los datos de nuestros clientes se quedaran en asistentes generalistas, que buscaban que nos integráramos con ellos. Además, independientemente de que tuviéramos integrados los interfaces de procesamiento de lenguaje natural en Smart Speakers como Alexa o Google Home, eso no nos solucionaría el problema de las webs, los contact centers, las apps móviles, herramientas internas, etc... Debíamos construir las APIs, las intents, y luego buscar en que canal lo integrábamos para llegar al cliente.


Figura 8: Aura, en Vivo Brasil

Así que construimos Aura, y lo integramos en la Televisión, en el Mando Vocal, en las apps, en las llamadas al Contact Center en los países y, puntualmente, en algunos asistentes de terceros con algunas capacidades y funciones limitadas. Queríamos controlar el motor de lenguaje natural e implantarlo en nuestros servicios para clientes. Y ahora, con la llegada de los LLMs y la GenAI, tenemos muchas más posibilidades gracias a eso.
Hoy en día Aura, que está en Brasil, España, Alemania y UK en múltiples canales, con millones de usuarios, y es pieza clave en la estrategia de accesibilidad que viene ahora en Europa. El objetivo era controlar la interacción con el lenguaje natural con nuestros clientes a la par que se desarrollaba esa necesidad - no todos los clientes gustan de chatear o hablar a los servicios digitales -, sin caer en la dependencia de terceros y poder controlar el canal que seguro que iba a ser importante en el futuro.

Movistar Home Connect

Este tercero es uno de los más interesantes proyectos que hemos construido, y de los más difíciles. Y fue un proyecto por el que tuvimos internamente muchos debates y análisis profundos. Y con un objetivo muy concreto que conseguir. Pero dejadme que os lo cuente en detalle que esta historia es de las que me gusta contar a mis compañeros en las cenas.

Estábamos en el año 2016 y el hype de Alexa tenía a todos muy nerviosos. Amazon había hecho una propuesta de un producto muy cool que se disfrutaba en los hogares. Y nosotros teníamos ahí mucho que proteger. Amazon tenía Alexa y Prime Video, FireTV, y Google tenía Android TV, Youtube e iba a sacar Google Home para el hogar en esas fechas. Estaba claro que se abría la batalla por el hogar, y nosotros teníamos mucho que defender allí.

Figura 10: Solución de SmartWifi

En el pasado, cuando nosotros llevamos Internet a los hogares, los ejecutivos de Telefónica, en concreto el mítico Julio Linares, puso en la estrategia proteger la conexión a Internet de Banda Ancha de los hogares mediante una solución WiFi, para que así no éramos intermediados por un dispositivo que estaba apareciendo. Ese fue el nacimiento de SmartWiFi en el grupo Telefónica.

Después, para consolidad nuestro posicionamiento en el hogar apostamos por la Televisión de Digital de Pago, con soluciones IPTV y OTT, incluyendo el descodificador con sistema operativo propio para no ser intermediados y soluciones en forma de apps para las SmartTVs. De hecho, hubo hasta una iniciativa en la que se construyó el descodificador de Telefónica dentro de algunas SmartTvs, aunque no acabó de cuajar. Con esa misma idea de "Home is our Territory", se trabajó en lanzar también Movistar Prosegur Alarmas o Solar360, buscando, como en las buenas partidas de ajedrez, controlar el "centro del tablero". 

Figura 11: Presentación Completa del "hogar digital" en Ilustres Ignorantes
con Javier Cansado, Pepe Colubi y Javier Coronas

Pero estábamos en el año 2016, en medio del boom de Alexa y la corriente con Google Home ( e incluso Cortana ), donde algunas empresas de telecomunicaciones lanzaron su asistente y su smartspeaker para la televisión, como Magenta de DT. Y sí, en Telefónica había un equipo que había diseñado un proyecto de SmartSpeaker, con prototipos, business plan, etc... pero teníamos muchos debates sobre ello. Nunca íbamos a poder competir siendo un asistente para todo. Sin embargo, los tres casos de uso más importantes para estos dispositivos eran la música, la televisión, las llamadas de teléfono. Y nosotros controlábamos dos de ellos.

En Telefónica, no convencidos con el SmartSpekar, el equipo de dispositivos de la unidad de CTO había evolucionado el teléfono fijo a un sistema de teléfono digital en el hogar con pantalla táctil. Yo tengo uno de esos prototipos en mi despacho, que os dejo en foto. La idea era aprovechar el lugar que ocupaban todavía muchos teléfonos fijos en las casas de nuestros hogares, para meter un teléfono digital táctil con más capacidades, como controlar la televisión o tener un Second Screen. Así que, después de muchos debates decidimos que no había que lanzar el SmartSpeaker, y que aprovechando Aura y su integraci´no con la Televisión podríamos lanzar un SmartDisplay para frenar la entrada de Alexa en los hogares.

Figura 12: Prototipo de Movistar Home que guardo en mi oficina

Sabíamos que la mayoría de nuestros clientes seguían usando el mando y no tenían ningún SmartSpeaker en su salón, así que si para los que tenían inquietud por estos dispositivos les dábamos una solución como 2nd Screen para la Televisión y llamadas con Aura, podríamos defender nuestra posición y mitigar el impacto del "hype". Al mismo tiempo había que evolucionar a la máxima calidad los servicios de televisión, y comenzamos con una estrategia de agregar terceros, meter el mando vocal e introducir experiencias como Living Apps, Radio, Podcasts, etc... 


Figura 13: Living App de La Liga en Movistar Home

Al final lanzamos Movistar Home, con sólo unas decenas de miles de dispositivos que construimos y vendimos, paramos el hype de Alexa en nuestros clientes sin darles las llamadas ni la televisión. Después llegó la crisis de los chips, y decidimos que todo el software de Movistar Home lo íbamos a migrar a una app, que comenzamos a construir en 2022, para tener la primera versión de Docking Mode de Apps, gratis para nuestros clientes. Y sí, con control de la televisión y las llamadas, para que sigan pudiendo tener la misma experiencia.

Figura 14: De Movistar Home a Movistar Home Connect vía app
presentado en el Innovation Day, como app gratuita de innovación.

En este caso, este proyecto tenía unos objetivos muy concretos, con unos recursos muy limitados, y con una carga de innovación e incertidumbre altísima, pero no sólo nos ayudó a frenar la entrada de los SmartSpeakers como interfaz único con el usuario en casa de nuestros clientes, sino que consiguió que la plataforma de TV creciera en valor, y la estrategia de integrar plataformas en España ha llevado a que Netflix, Prime, Disney+, FlixOlé o Mi Tele están integrados en el descodificador, y otros como HBO Max, Apple TV+, Warner o Sky Showtime integran directamente el contenido. 


Figura 15: Con Antonio Guzman presentando Hogar Movistar
con Living Apps y Movistar Home Connect en Innovation Day 2024.

Hacemos tecnología que nos ayude a que "Home is our territory", por eso integramos también Movistar Cloud, Perplexity, hacemos Living Apps de deporte, cuentos, Tv-Commerce y seguimos evolucionando Movistar Home Connect.

Por supuesto, hay muchas tecnologías que no construimos nosotros. Hay también muchas tecnologías de innovación que son experimentales, que tienen un riesgo de morir pronto muy alto, o que simplemente hay un cambio de contexto que obliga a rectificar la estrategia. No tiene sentido hacer todo, ni mucho menos, pero proteger el valor a largo plazo y dejar las fichas de ajedrez en la mejor posición posible es parte de la responsabilidad de los que hacemos tecnología para una empresa.

Espero que estas tres historias de cómo y por qué hemos hecho algunas plataformas os hayan entretenido, que para nosotros han sido muchas, muchas, muchas horas de pensar y ejecutar. Cada una de ellas tiene parte de la vida de todos los que hemos trabajado en ellas. Y por supuesto, hoy hacemos OpenGateway y acuerdos con Perplexity, e inversiones en otras tecnologías, y cada una tiene su historia detrás, pero esas os las contaré dentro de unos años... que ahora estamos en plena ejecución. }:)

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


lunes, enero 06, 2025

Google Maps: Los taxistas, ciclistas y autobuseros

Soy un "power user" de Google Maps. Lo uso siempre. Para cualquier desplazamiento por Madrid. Desde ir al trabajo, hasta hacer una ruta que me conozca de memoria. La razón es que me he visto atrapado en Madrid, en estos más de treinta años que llevo conduciendo por esta ciudad, en innumerables ocasiones. Una obra, un accidente, una carrera de 10Km, un corte de calles por polución, o cualquier otro evento pueden hacer que tu día se arruine encerrado en un atasco. Así que no me desplazo en mi "malignomovil" sin usar Google Maps.

Figura 1: Un Google Maps para Taxistas, bicicletas y Autobuseros 

Entre los problemas que tiene Google Maps en Madrid, hay tres que tengo muy localizados, y que son bastante problemáticos. El primero es el de las rutas erróneas - del que ya os he hablado otra vez-, el segundo es el famoso túnel de la M-30 donde tienes que configurar las balizas BlueTooth y no es que vayan muy allá, y el tercero, que es del que voy a hablaros hoy, es el de los datos de los Taxistas y Autobuseros.

Rutas Erróneas que te cuestan pitadas, tiempo puntos y accidentes

Usar tanto Google Maps ha hecho que conozca bastante bien sus limitaciones, y la primera de ellas son los giros imposibles que me han costado alguna multa y algún susto de accidente, además de perder tiempo. Esas rutas que están erróneas y que generan problemas no sólo a mí, sino a mucha gente que lo usan y que me gustaría que Google premiara por reportar, para mejorar cuanto antes el producto.

Figura 2: Ruta imposible de hacer

Si se te ocurre hacer la ruta que tienes en la Figura 2, te vas a llevar una pitada sí o sí, además de una bonita multa de tráfico, la perdida de algún punto del carné, y si estás de suerte no generarás ningún accidente de tráfico.
Yo he reportado estas rutas algunas veces, y escribí un artículo titulado: "Cómo corregir las rutas erróneas y peligrosas de Google Maps" para que todos los que somos usuarios de esta plataforma nos beneficiemos, pero creo que debido al impacto que tiene esta plataforma en las ciudades, deberán incentivar más desde Google la corrección de estos errores.

Balizas Bluetooth en túneles

Google Maps añadió la opción de configurar Balizas Bluetooth en túneles en Android para evitar que te pierdas en los túneles de la M-30 - por ejemplo -, pero esta opción llevamos un año esperándola en iPhone y aún no la he visto. Así que, cada vez que me toca una ruta que pasa por los túneles, memorizo bien qué punto salida tengo que tomar, para no perderme, que ya me he perdido muchas veces. De este tema ya "haré terapia" en otro artículo.

Datos de Taxistas y Autobuseros

Este es el tema del que quería hablaros hoy, que es algo que también me lleva años comiendo la cabeza, y que me ha hecho perder tiempo y reuniones por fiarme de los datos de Google Maps en estas rutas. Se trata de aquellas rutas que te meten por calles que tienen carriles BUS y Taxi, donde los datos quedan distorsionados.


Figura 4: Atascos creados con 99 Androids y un carrito

Veréis, Google Maps utiliza los datos de - por supuesto todos los Google Maps -  y de los terminales Android para conocer la densidad de tráfico en tiempo real. Esto, lo utilizó un hacker en una demostración muy sencilla donde ponía en rojo las rutas simplemente paseando un carrito con terminales Android. Pero esto mismo sucede si los datos vienen desde fuentes de datos sesgadas, como son los Taxistas y Autobuses, además de los ciclistas, que utilizan los carriles Bus/Taxi/Bici y de los propios pasajeros de un autobús.

Figura 5: La Gran Vía de "subida" con el carril bus/taxi y bici

En la foto de arriba tenéis la Gran Vía de Madrid, donde os aseguro que el carril Bus/Taxi y el Carril Bici funciona muy bien de subida, pero el carril para los vehículos normales está totalmente colapsado siempre, especialmente en días como ayer (noche de Reyes Magos), donde el centro de Madrid estaba a reventar. Sin embargo, como podéis ver en la recomendación de mi ruta de Google Maps me sale azulito.

Figura 6: Sube gran vía la noche de Reyes Magos
en tu vehículo y me dices si es azul

Esto es porque los datos con los que se está alimentando Google Maps no están correctamente limpios, y está chupándose datos sesgados de taxistas, ciclistas, autobuses y autobuseros, algo a lo que deberían meterle un poco más de ingenieros. Además, estos datos son peligrosos porque los taxistas y autobuses tienen permitidas zonas y giros que están prohibidos para el resto de los vehículos en las ciudades, así que deterioran la experiencia de los conductores y generan problemas en las ciudades. 

Conclusiones

Personalmente creo que los datos GPS de plataformas como Waze, Google Maps, o Apple Maps, así com el uso de ellos que hacen plataformas como Uber, Cabify, Volt, FreeNow o las plataformas de movilidad y parking en las ciudades son parte de lo que es una "SmartCity" y es fundamental asegurase de que estos datos generar un buen funcionamiento de la ciudad y no lo contrario, así que hay que poner esfuerzo en mejorar estas cosas. Y nada más, que os hayan traído muchas cosas los Reyes Magos.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares