Ha estado esta semana circulando una respuesta por la que supuestamente Grok el Asistente de Inteligencia Artificial de Twitter de X, te daba la lista de las 10 cuentas que más ven tu perfil. El detalle es sutil y significativo, porque al final no es esa la información que da, sino sobre las que más interactúan con tu cuenta, que es diferente.
Figura 1: Grok y los usuarios que más interacción
tienen con tu cuenta de Twitter... o llámalo X
Que un modelo como Grok tuviera un leak de información no sería raro. Haciendo técnicas de Prompt Injection ha sido posible saltarse los Guardrails y el Harmful Mode de muchos modelos, y hemos visto el System Prompt de DeepSeek, o bugs de privacidad leakeadndo API Keys a GitHub, Amazon Whisper o Llama Code. Así que había que entender qué estaba sacando directamente en esa lista que podría ser un leak o una mala interpretación de los resultados. De todas estas cosas hablé en esta charla.
Si miráis en el ejemplo que hemos hecho con la cuenta oficial de Cálico Electrónico en Twitter/X, se puede ver que te hace una lista con el número de visitas mensuales media, y me parece una salvajada que, por ejemplo, Nikotxan - papá y creador de Cálico Electrónico - que lo quiere mucho, tenga 30 visitas al mes de media. ¿Por qué os digo esto? Pues ahora os lo explico.
Os he dicho que me parece una salvajada, pero me lo parece porque ... ¿de dónde saca los datos? Preguntando lo mismo con la cuenta de 0xWord, lo que obtenemos es que realmente no tiene acceso a estos datos, y que usa como aproximación el número de interacciones.
Los datos de las interacciones son algo que la persona puede ver en sus tweets. Sin necesidad de tener una cuenta Premium (donde tienes muchas más estadísticas) se puede saber el número de comentarios y quién comenta, el número de visitas al post, el número y quién te ha dado Like, el número y quien a hecho un ReTweet o RePost, el número de cuánta gente lo ha Guardado, y el número de cuánta gente ha hecho un Quote+ReTweet, y con esto puedes sacar la información del engagement de tus usuarios.
Saber quién en concreto ha hecho la acción de Comment, Like, RePost o Quote-RePost es privado, y solo lo puede ver el dueño de la cuenta pero.... no nos engañemos, los Posts y los Quote-Repost son información pública que se puede sacar con las opciones de búsqueda correctas de Twitter/X.
Al final, quedan visibles en el perfil de la cuenta que ha hecho el RePost o el Quote-RePost. Saber quién ha hecho Like a un Post del Tweet/Post de otro ya no lo tengo tan claro si se puede ver fácil, pero desde luego hay datos suficientes para poder hacer públicamente una inferencia de interacciones.
Figura 7: Si eres el dueño del tweet puedes ver quién
ha hecho Quote-RePost (Citas), RePost o Like
Con todos estos datos, las herramientas profesionales de Twitter/X hacen estadísticas muy valiosas para los equipos de marketing, que ayudan a medir los resultados de sus campañas. Visto esto, la pregunta inicial a Grok sobre Cálico Electrónico de la Figura 3, calcular 30 interacciones para una cuenta es muy alto, así que debe ser una inferencia que ... habrá salido bien, o habrá salido mal.
¿Quién visita tu perfil?
Sin embargo, la preocupación era que te pudiera dar un dato que en la Figura 3 se le ha pedido, que es quién visita mi perfil. Este dato, que obviamente tiene Twitter/X y que utiliza para los algoritmos de Machine Learning de recomendación de follow, lo diera, tendríamos acceso a un dato que ahora no se tiene.
Alguien que visita tu perfil pero que no interactúe, podría pasar desapercibido tal y como está ahora, pero si te diera Grok lo que se pide "¿Quién visita mi perfil?" sería un leak bueno.
Figura 9: En Linkedin se puede ver quién ha visto tu perfil
Linkedin sí que da ese dato , y se puedoe saber quién ha visto tu perfil, que es algo muy común. La única diferencia es que en Linkedin se conoce que se puede sacar este dato, y en Twitter/X no es posible a día de hoy.
Figura 10: Preguntando internamente.
Probando internamente con Grok 3, desde una cuenta Premium, es decir, sin usar la versión de asistente de Time-Line, el resultado es que no me daba nada de nada de datos. No he podido probar con Grok 4, que no lo tengo, pero si alguno de vosotros lo tiene y lo prueba, encantado de que me compartáis los resultados. En definitiva, visto hasta aquí, no hay más que una aproximación por interacción con una estimación, así que no leak.
En los últimos años, la Inteligencia Artificial (IA) ha transformado innumerables industrias, pero pocos sectores han experimentado un impacto tan significativo como el de la salud. Desde el diagnóstico temprano de enfermedades hasta la optimización de tratamientos y la personalización de la atención médica, la IA está revolucionando la manera en que médicos, investigadores y hospitales operan.
Gracias a su capacidad para analizar grandes volúmenes de datos con precisión, rapidez y bajo coste, esta tecnología no solo mejora la eficiencia de los sistemas de salud, sino que también salva vidas al permitir diagnósticos más certeros y tratamientos más efectivos. La pandemia de COVID-19 aceleró la adopción de IA en la detección de enfermedades, análisis de imágenes médicas y desarrollo de vacunas. De estos temas, podéis leer algunos artículos de hace tiempo que cuentan algunas historias de estos avances.
Debido a esta urgencia de necesidad, el desarrollo de la tecnología y el gran incremento en la disponibilidad de datos médicos masivos (Big Data en salud), así como la recopilación de infinitas muestras a tiempo real gracias al Internet de las Cosas Médicas (IoMT), los últimos años están siendo momentos de auge para el desarrollo sanitario movilizado por la Inteligencia Artificial.
Algunas empresas en España, como es Idoven, la startup del Doctor Manuel Marina han demostrado que la Inteligencia Artificial es fundamental para detección temprana de enfermedades cardiovasculares, y algunos inversores como es el caso de Iker Casillas o Wayra, han puesto su dinero para acelerar el crecimiento de estas compañías.
El impacto de la IA hoy en día en Salud
En la última década estamos observando que los avances en la IA han motorizado el progreso de diferentes aplicaciones sanitarias. El boom de las CNNs (Convolutional Neural Networks) y el Computer Vision ha sido clave para el avance de la radiología y el análisis de imágenes médicas, como los rayos X y las resonancias magnéticas. Google Deepmind, por ejemplo, ofrece modelos que detectan con alta precisión el cáncer de mama, enfermedades oculares y más en base a imágenes.
Por otra parte, modelos generativos como las GANs (Redes Generativas Antagónicas) y latentes como los VAEs (Variational Autoencoders) aceleran la identificación de compuestos químicos con potencial terapéutico. AlphaFold de DeepMind es un caso de éxito, prediciendo la estructura de proteínas y revolucionando la investigación farmacéutica.
Contrario a la creencia popular, algoritmos más tradicionales de Machine Learning, como los Random Forest, se utilizan muy popularmente en diferentes aplicaciones debido a su alta interpretabilidad. Un ejemplo llamativo es IBM Watson for Genomics, que analiza el contenido genómico de los pacientes y su influencia en el desarrollo de cáncer o enfermedades neurológicas.
Pero la influencia de la IA en el sector sanitario no se queda en el análisis de datos de pacientes solamente, sino que está mejorando la optimización del sector.
La disponibilidad de GPUs y TPUs más potentes y asequibles ha facilitado la implementación de modelos más complejos y su velocidad ha hecho posible la prueba de miles de conceptos antes de realizar ensayos clínicos, minimizando los costes y acelerando su desarrollo.
Algunos ejemplos de optimización de recursos implementados son el uso de Redes Bayesianas para la asignación de habitaciones en hospitales, o el uso de chats médicos basados en LLMs que dirigen la asistencia sanitaria.
Neko Health: Medicina personalizada
Neko Health, la empresa cofundada por el CEO de SpotifyDaniel Ek, promete detectar fases tempranas y prevenir enfermedades mediante la fusión de software y hardware avanzado.
Sus instalaciones en Estocolmo y Londres te permiten viajar al futuro. Con 70 sensores que te realizan un escaneo full-body, son capaces de extraer millones de datos acerca de tu salud cardiovascular, niveles de glucosa y colesterol y el estado de piel de manera no invasiva. Obtienes un análisis profundo sobre el estado de tu salud y su proyección a futuro en base a tus hábitos en menos de una hora.
El objetivo de Neko es enfocar la salud desde el punto de vista preventivo, monitorear los datos del paciente para poder hacer seguimientos exhaustivos durante los años de la evolución de su salud y ofrecer recomendaciones médicas inmediatas, evitando los largos periodos de espera para conocer los resultados. Aunque su objetivo es ofrecer los datos médicos a un coste virtualmente bajo y en un tiempo ínfimo, actualmente se acercan bastante a esta proyección. En 15 minutos, capturan 15 GB de datos de salud a un coste relativamente bajo.
¿Pero cómo pretenden prevenir enfermedades antes de que se desarrollen? Neko investiga métodos y tecnologías basadas en la detección de la alteración o pérdida de funciones biológicas, en contraste a la detección de sintomatología desarrollada por causa de la enfermedad ya existente. Esto permitirá a los pacientes ir un paso por delante de su salud y parar el desarrollo de enfermedad antes de que el daño comience a ocurrir. Su análisis se basa en diferentes pasos.
Fases del escaneo
La primera fase consiste en la recolección de datos haciendo un escaneo de toda tu piel. Toman imágenes de alta resolución y a partir de estas modelan una imagen digital de tu cuerpo con marcadores sobre su forma, la piel y la distribución de temperatura usando métodos de Computer Vision.
La segunda fase del escaneo mide tu salud cardiovascular usando aparatología médica en 7 puntos diferentes de cuerpo, analizando tu pulso y cómo se mueve la sangre por el sistema arterial, lo cual les permite conocer la distribución de tu sistema sanguíneo. También analizan la microcirculación, que ocurre en los vasos sanguíneos más pequeños del cuerpo y está altamente relacionada con el desarrollo de problemas de salud. Finalmente, toman una muestra de sangre de la cual pueden extraer más perspectivas.
Todos los datos recopilados son analizados en base a múltiples diferentes metodologías, ofreciendo resultados precisos, valiosos y visuales al personal médico que posteriormente evaluará el estado de tu salud contigo.
La importancia de los datos
El enfoque de Neko Health pretende ser individual y específico al paciente y el momento en el que se le está examinando. No proponen comparar métricas y valores generales como se ha estado haciendo tradicionalmente, sino en analizar la salud del individuo en base a sus propias estadísticas.
Como Neko Health, podemos encontrar múltiples empresas que se dedican a reforzar la medicina en base a los datos personales de cada paciente y proyectar su bienestar. Que tengamos la fortuna de estar viviendo en la Era de los datos y de la Inteligencia Artificial nos permitirá seguir viendo cómo soluciones innovadoras similares a esta continúan evolucionando y potenciando el desarrollo sanitario, junto con la longevidad y calidad de vida de nuestra sociedad.
Saludos,
Autor: Afina Nurorva, Investigadora Telefónica Innovación Digital
Soy un "power user" de Google Maps. Lo uso siempre. Para cualquier desplazamiento por Madrid. Desde ir al trabajo, hasta hacer una ruta que me conozca de memoria. La razón es que me he visto atrapado en Madrid, en estos más de treinta años que llevo conduciendo por esta ciudad, en innumerables ocasiones. Una obra, un accidente, una carrera de 10Km, un corte de calles por polución, o cualquier otro evento pueden hacer que tu día se arruine encerrado en un atasco. Así que no me desplazo en mi "malignomovil" sin usar Google Maps.
Figura 1: Un Google Maps para Taxistas, bicicletas y Autobuseros
Entre los problemas que tiene Google Maps en Madrid, hay tres que tengo muy localizados, y que son bastante problemáticos. El primero es el de las rutas erróneas - del que ya os he hablado otra vez-, el segundo es el famoso túnel de la M-30 donde tienes que configurar las balizas BlueTooth y no es que vayan muy allá, y el tercero, que es del que voy a hablaros hoy, es el de los datos de los Taxistas y Autobuseros.
Rutas Erróneas que te cuestan pitadas, tiempo puntos y accidentes
Usar tanto Google Maps ha hecho que conozca bastante bien sus limitaciones, y la primera de ellas son los giros imposibles que me han costado alguna multa y algún susto de accidente, además de perder tiempo. Esas rutas que están erróneas y que generan problemas no sólo a mí, sino a mucha gente que lo usan y que me gustaría que Google premiara por reportar, para mejorar cuanto antes el producto.
Figura 2: Ruta imposible de hacer
Si se te ocurre hacer la ruta que tienes en la Figura 2, te vas a llevar una pitada sí o sí, además de una bonita multa de tráfico, la perdida de algún punto del carné, y si estás de suerte no generarás ningún accidente de tráfico.
Yo he reportado estas rutas algunas veces, y escribí un artículo titulado: "Cómo corregir las rutas erróneas y peligrosas de Google Maps" para que todos los que somos usuarios de esta plataforma nos beneficiemos, pero creo que debido al impacto que tiene esta plataforma en las ciudades, deberán incentivar más desde Google la corrección de estos errores.
Balizas Bluetooth en túneles
Google Maps añadió la opción de configurar Balizas Bluetooth en túneles en Android para evitar que te pierdas en los túneles de la M-30 - por ejemplo -, pero esta opción llevamos un año esperándola en iPhone y aún no la he visto. Así que, cada vez que me toca una ruta que pasa por los túneles, memorizo bien qué punto salida tengo que tomar, para no perderme, que ya me he perdido muchas veces. De este tema ya "haré terapia" en otro artículo.
Datos de Taxistas y Autobuseros
Este es el tema del que quería hablaros hoy, que es algo que también me lleva años comiendo la cabeza, y que me ha hecho perder tiempo y reuniones por fiarme de los datos de Google Maps en estas rutas. Se trata de aquellas rutas que te meten por calles que tienen carriles BUS y Taxi, donde los datos quedan distorsionados.
Veréis, Google Maps utiliza los datos de - por supuesto todos los Google Maps - y de los terminales Android para conocer la densidad de tráfico en tiempo real. Esto, lo utilizó un hacker en una demostración muy sencilla donde ponía en rojo las rutas simplemente paseando un carrito con terminales Android. Pero esto mismo sucede si los datos vienen desde fuentes de datos sesgadas, como son los Taxistas y Autobuses, además de los ciclistas, que utilizan los carriles Bus/Taxi/Bici y de los propios pasajeros de un autobús.
Figura 5: La Gran Vía de "subida" con el carril bus/taxi y bici
En la foto de arriba tenéis la Gran Vía de Madrid, donde os aseguro que el carril Bus/Taxi y el Carril Bici funciona muy bien de subida, pero el carril para los vehículos normales está totalmente colapsado siempre, especialmente en días como ayer (noche de Reyes Magos), donde el centro de Madrid estaba a reventar. Sin embargo, como podéis ver en la recomendación de mi ruta de Google Maps me sale azulito.
Figura 6: Sube gran vía la noche de Reyes Magos
en tu vehículo y me dices si es azul
Esto es porque los datos con los que se está alimentando Google Maps no están correctamente limpios, y está chupándose datos sesgados de taxistas, ciclistas, autobuses y autobuseros, algo a lo que deberían meterle un poco más de ingenieros. Además, estos datos son peligrosos porque los taxistas y autobuses tienen permitidas zonas y giros que están prohibidos para el resto de los vehículos en las ciudades, así que deterioran la experiencia de los conductores y generan problemas en las ciudades.
Conclusiones
Personalmente creo que los datos GPS de plataformas como Waze, Google Maps, o Apple Maps, así com el uso de ellos que hacen plataformas como Uber, Cabify, Volt, FreeNow o las plataformas de movilidad y parking en las ciudades son parte de lo que es una "SmartCity" y es fundamental asegurase de que estos datos generar un buen funcionamiento de la ciudad y no lo contrario, así que hay que poner esfuerzo en mejorar estas cosas. Y nada más, que os hayan traído muchas cosas los Reyes Magos.
En el mundo en el que vivimos hoy, donde la tecnología avanza a pasos agigantados, la industria automotriz no se queda atrás. No fue hasta que me mudé a Málaga que me di cuenta de la necesidad de tener un coche, dado que el transporte público aquí no se compara con el de Madrid. Esta necesidad me impulsó a buscar las mejores opciones disponibles en el mercado.
Figura 1: Cómo buscar buenos precios en coches de segunda mano
Fue entonces cuando me percaté de dos aspectos cruciales. Primero, que los precios de los coches han aumentado significativamente en los últimos años; y segundo, que no tengo ni idea sobre coches, por lo que las posibilidades de que me engañaran en la compra eran inmensas. En ese momento, empecé a pensar en cómo podría comprar la Furgoneta Camper que siempre había soñado sin que me costara una fortuna.
Entonces me di cuenta de lo útil que sería tener una base de datos con información sobre los precios de los coches según su año o kilometraje. Esto me permitiría hacer un estudio de mercado por medio de técnicas de BigData y Machine Learning y saber si el precio de un vehículo era razonable o si, por el contrario, me estaban intentando vender algo mucho más caro de lo normal.
WebScraping y Análisis de Datos
Para resolver este misterio, decidí realizar un proceso de Web Scraping de las páginas de compra y venta de coches de segunda mano más populares en España. Extraje datos como el precio, el kilometraje y el año de los modelos de coche que más me interesaban en ese momento (nunca ningún dato sensible ni personal de ningún vendedor, ni del coche).
Fue una tarea laboriosa, ya que las APIs que utilicé solo permitían obtener datos de 100 coches a la vez y, considerando que había cerca de 300.000 coches listados, tuve que implementar un filtro robusto y armarme de mucha paciencia, pero finalmente fui capaz de poblar mi base de datos con los diferentes precios y kilómetros de cada coche en el que estaba interesado. Por ejemplo, de Volkswagen Caddy pude obtener cerca de 700 precios diferentes.
Figura 3: Mi BBDD con Wolkswagen Caddy
Después de hacer el Web Scraping y obtener los precios de los vehículos que me gustaban, ya podía empezar a comparar precios. Pero entonces pensé: ya que estoy automatizando este proceso, ¿por qué no desarrollar un programa que, mediante un algoritmo de regresión lineal, prediga si estoy a punto de hacer una buena o una mala compra? De esta manera, podría saber si el precio de una furgoneta, considerando su kilometraje, es razonable o excesivo. Y eso fue exactamente lo que hice.
Para lograr esto, pasé varios días investigando, ya que nunca había hecho nada relacionado con estadística ni mucho menos con Machine Learning. Finalmente, desarrollé un programa capaz de entrenar un modelo de regresión lineal. Este modelo utiliza dos parámetros, conocidos como coeficientes (Theta), para ajustar una línea que minimiza la diferencia entre los precios reales y los precios predichos. La función de coste que utilicé mide el error cuadrático medio entre los precios observados y los predichos durante el entrenamiento del modelo. Al minimizar esta función de coste, el modelo ajusta sus parámetros para hacer predicciones más precisas.
Gracias a este modelo entrenado, ahora puedo determinar de manera más informada si una furgoneta tiene un precio razonable en función de su kilometraje. Voy a mostrarte exactamente cómo funciona el programa escrito en Python que diseñé para predecir precios. Al abrir el programa, aparece un menú desde el cual puedes elegir qué deseas hacer.
Figura 5: Programa para predecir buenas o malas compras de coches
En mi caso, como ya tengo mi archivo .csv con todos los precios de las Volkswagen Caddy, decido usar la primera opción y especificar el archivo desde donde se va a nutrir. Más tarde, el programa me pedirá varias opciones de entrenamiento, como el modo visual, entre otras. Estas son características que he añadido, pero no afectan al funcionamiento del modelo.
Como recomendación, sugiero no usar la opción de entrenamiento gráfico "verbosed", ya que puede causar un retraso significativo en el entrenamiento del modelo. Una vez que nuestro modelo esté entrenado, podremos ver que la gráfica de los coches se ve aproximadamente así:
Figura 6: Gráfica de precio vs. kilometros
La línea roja que puedes ver en medio de todos los datos es la que determina el valor que el modelo predice según el kilometraje que le indiquemos. Con todo esto, el modelo ya estaría entrenado. Sólo tendríamos que buscar un coche en el que esté interesado. Por ejemplo, éste en concreto:
Figura 7: ¿Será o no una buena compra?
Una vez que hemos seleccionado un coche, debemos acceder al apartado de predicción de precios en el programa donde tendremos que especificar cuántos kilómetros tiene el coche y, como podemos ver, este coche tiene un precio bastante aceptable y no es mucho más caro de lo que debería ser. Por lo que habría que mirar mas en detalle las características del mismo pero si nos guiamos solo por estos valores podría ser una buena compra.
Figura 8: Está en precio este coche
Con toda la información que tenemos, podría ser muy interesante crear un canal de comunicación automatizado (por ejemplo Telegram) que te avise de los coches que salen con un precio inferior al promedio dado sus respectivos kilómetros. Pero eso es algo que voy a dejar para un futuro. Por el momento hasta aquí llega mi estudio sobre coches y lo que se puede hacer con los datos públicos de los mismos.
Si quieres saber más sobre este proyecto que he creado para predecir los precios de los coches utilizando un algoritmo de descenso de gradiente, te dejo aquí el enlace al proyecto en GitHub, escrito en Python. He subido todo el código documentado y bien organizado para que puedas explorarlo. Siéntete libre de curiosearlo y si te apetece colaborar, también puedes.
El mes pasado impartí una sesión rápida en La Product Conf, un evento centrado en Product Managers & Product Owners, donde me invitaron para hablar de Inteligencia Artificial Generativa e Innovación en Productos, para que pudieran entender cómo la aplicamos nosotros, y cómo poder usarla ellos.
La sesión quedó grabada, y yo la he subido a mi canal de Youtube para que la puedas ver cuando quieras (y si quieres, que no estás obligado). En ella hablo de muchas cosas que os he contado por aquí en el blog, y de algunos proyectos que hemos hecho jugando con los Cognitive Services, que desde hace años nos ha encantado jugar con ellos.
Y nada más, que estamos en fin de semana y no quiero dejaros más cosas para que podáis disfrutar de daros un bañito, salir a pasear por el monte, o lo que queráis. Yo voy a hacer algo también hoy, así que nos vemos.
Siempre que publicamos un nuevo libro en 0xWord es un día de celebración. Cuesta mucho sacar adelante este proyecto, y poder decir que hoy tenemos ya a la venta el último ejemplar de "Big Data: Tecnologías para arquitecturas Data-Centric", escrito por Ibon Reinoso, y donde yo he colaborado con el prólogo y con un capítulo con historias de mis "Big Data Security Tales", donde narro mis aventuras con bugs y fallos de seguridad en estas tecnologías.
El libro, como os he dicho, lo ha escrito Ibon Reinoso que es Arquitecto de Soluciones y Senior Data Scientist, además de haber sido el director y profesor en el Programa Nacional Big Data, donde ha formado en estas tecnologías a más de 1.500 alumnos en más de 20 ciudades. También es el creador de BigBayData.com, pero sobre todo un amante de los Datos.
El libro es perfecto para meterse de lleno en la arquitectura de soluciones de Big Data, y en sus más de 200 páginas trata temas como Spark, NoSQL, MongoDB, Cassandra, Hadoop, Datos en Stream o Apache Kafka. Fundamentales para entender este mundo.
El libro, que es una lectura perfecta para iniciarse y ponerse a trabajar desde ya en entornos de BigData, trata también temas fundamentales en el tratamiento de datos, como la gestión de ficheros con Pyhton, los procesos ETL (Extraction, Transformation & Load) de datos, o los fundamentos del lenguaje SQL. Podéis ver el índice en el fichero que he subido a mi canal de SlideShare.
Así que, si quieres un libro para este verano, ya tienes este texto disponible para que te lo puedas comprar, y además, puedes usar tus Tempos de MyPublicInbox.
Usar tus Tempos de MyPublicInbox 0xWord para adquirir este libro
Para terminar, te recuerdo que tendrás también 100 Tempos de MyPublicInbox por la compra de este libro de "Big Data: Tecnologías para arquitecturas Data-Centric" y que además, puedes pagar completa o parcialmente este libro con Tempos de MyPublicInbox. Aquí te explico cómo se hace. La idea es muy sencilla, hemos creado un Buzón Público de 0xWord en MyPublicInbox y tenemos disponible el módulo de transferencias de Tempos entre cuentas siempre que el destinatario sea un Perfil Público de la plataforma. Para que se puedan hacer estas transferencias, primero debe estar el Perfil Público destinatario de la transferencia en la Agenda.
Una vez que lo tengas en la agenda, ya será tan fácil como irte a tu perfil - se accede haciendo clic en la imagen redonda con tu foto en la parte superior - y entrar en la Zona de Transferencias. Desde allí seleccionas el Buzón Público de 0xWord, el número de Tempos que quieres transferir, y en el concepto debes poner que es para recibir un código descuento para usar en la tienda de 0xWord.
No te preocupes por el texto concreto, porque los procesamos manualmente como los pedidos de se hacen en la tienda.
Canjear 500 Tempos por un código descuento de 5 €
La última opción es bastante sencilla. Solo debes irte a la sección de Canjear Tempos -> Vales para Tiendas, y "Comprar" por 500 Tempos y código de 5 €. Es lo mismo que enviar la transferencia pero en un paquete de 500 Tempos y de forma totalmente automatizada, así que solo con que le des a comprar recibirás el código descuento y lo podrás utilizar en la tienda de 0xWord.com
Así que, si quieres conseguir nuestros libros de Seguridad Informática & Hacking aprovechando los Tempos de MyPublicInbox podrás hacerlo de forma muy sencilla y mucho, mucho, mucho más barato. Y así apoyas este proyecto tan bonito que es 0xWord.com.
Ser escritor de libros de 0xWord
Además, todos lo que queráis convertiros en escritores y hacer un proyecto de libro con nosotros. Podéis también enviarnos vuestra propuesta a través del buzón de 0xWord en MyPublicInbox, y si sois Perfiles Públicos de la plataforma, podéis entrar en la sección de Mi Perfil -> Servicios para ti y solicitar más información sobre el proceso de escribir un libro en 0xWord.
Nuestro equipo se pondrá en contacto contigo y evaluará tu proyecto de publicación de libro. Ya sabes que principalmente de Seguridad Informática & Hacking, y puede ser técnico, súper-técnico, o divulgación, y si es una novela... podemos estudiarlo también.
Para hoy sábado os he recapitulado cuatro charlas que dimos desde el equipo de Telefónica Innovación Digital en el Ágora de Telefónica en el Mobile World Congress 2024. En ellas David del Val, Yaiza Rubio y yo, hicimos un repaso de cómo están los proyectos de Kernel 2.0, OpenGateway, Utiq, Web3 & XR, y las tienes todas aquí.
La mía ya la había publicado antes, pero por si se te pasó, la dejo aquí, que además fue la primera de las cuatro que tuvimos que impartir.
(Re)Creating the World of Digital Services
Esta es la ponencia que di yo el primer día, y la charla entera la podéis ver en Youtube, que ya la he subido a mi canal. En ella veréis que comienza la charla con la presencia del genial pianista Lang Lang, que luego por la noche daría el maravilloso concierto que mezclaba música, arte digital y holografías. Una pasada que hace que sea difícil para el ojo humano descubrir la diferencia entre digital y real.
También estuvieron en la charla Jason Zander, de Microsoft, para presentar la colaboración que estamos haciendo en nuestro Kernel 2.0 para incorporar Azure AI Studio y hacer algo como el caso de "Aura Copilot" para nuestros equipos internos de trabajo. Y también estuvo el genialVala Asfhar, deSalesforce, que habló del proyecto de uso de lasAPIs de OpenGatewaya través deMuleSoft, gracias a una colaboración conDeloitte, liderados porPablo Benito, que han hecho un caso de uso fantástico.
Primeros pasos de Open Gateway en Telefónica
David del Val, Director de Telefónica Open Gateway, y Debora Ignacio Bortolasi, B2B Executive Director de Vivo (Telefónica Brasil), junto a Pablo Benito socio de transformación en la nube de Deloitte, Federico Vega, CEO de Frete.com, realizan una ponencia sobre el recorrido de la iniciativa Telefónica Open Gateway en su primer año de vida y su lanzamiento comercial en Brasil y España.
David del Val, Director de Telefónica Open Gateway, modera una mesa redonda sobre Utiq, una solución publicitaria que ofrece un servicio de consentimiento impulsado por las empresas de telecomunicaciones para sustituir las cookies de terceros, dandole control total de ellas a los usuarios. Junto a David están presentes: Marc Bressel, CEO de, Utiq, Nuria de Andres Santos, Head of Global Media de Telefónica S.A. y José Luis Nuñez Vivanco, Chief Strategy Officer de Unidad Editorial.
La idea es tan sencilla como que un sitio que utiliza Utiq y quiere dar las dos alternativas - Navegar Gratis o Pagar Suscripción -, puede darle al usuario la opción de ser perfilado por medio de estos identificadores de red. Los usuarios que aceptan utilizar Utiq, recibirán un SMS con información de Utiq, y la URL del Consent Hub de Utiq que es el panel en el que cuando el usuario lo desee, puede ir y eliminar el consentimiento de uso de ese identificador para ese sitio web.
De esta forma se intenta conseguir que los sitios de contenido gratuito que viven de la publicidad, puedan también garantizar al usuario que este tiene el control de sus identidades digitales y perfilado con un panel de control para todos.
Descubre cómo Telefónica habilita la Web3 y el Metaverso
Yaiza Rubio, Chief Metaverse Officer de Telefónica, y Daniel Hernández, VP Devices & Consumer IoT de Telefónica, presentan la ponencia: "Descubre cómo Telefónica se está convirtiendo en un habilitador de Web3 y XR" y contarán con la presencia de Mark Raynes, Head of Solutions de Chainlink Labs.
En esta ponencia se abordan los pasos dados en Telefónica Innovación Digital estos últimos meses. Las estrategias que se han seguido para crear un Metaverso más seguro para los usuarios, al mismo tiempo que se han sentado las bases para crear nuevas fuentes de ingresos basadas en la identidad digital, la privacidad y la seguridad, de lo que también habla Mark Raynes.
Diciembre es el mes por excelencia para hacer retrospectiva, tanto para los profesionales como para las empresas. Aprovechar este momento para plantear qué acciones tomar para conseguir el lugar deseado es fundamental para crecer en 2024, concretamente, en el sector tecnológico.
Se trata de un ámbito que apresura estas decisiones debido a su frenética evolución. Si eres profesional, tener en cuenta hacia dónde se dirige tu carrera y qué necesitas para seguir trazando un camino de crecimiento profesional ascendente, y si eres empresa, estar al día de cuáles van a ser los drivers del próximo año para detectar oportunidades que sigan manteniendo al negocio en un sistema de impacto y resultados positivos.
Desde GeeksHubs, como empresa de servicios IT y expertos en gestión de talento tech, afirman que la formación será una de las grandes claves de 2024 para fomentar el crecimiento del sector.
Para profesionales: Inicia tu carrera profesional tech o especialízate en una de las áreas IT más demandadas
1. Full Stack Developer: uno de los perfiles más demandados y el unicornio que toda empresa busca.
Las empresas tecnológicas siguen ampliando equipos y demandando nuevas especializaciones, pero el perfil de Full Stack Developer se mantiene como el unicornio que toda empresa busca. Se trata de una posición clave por su conocimiento integral en desarrollo de software que ayuda a las compañías en su proceso de transformación digital y crecimiento tecnológico.
Además, dispones de varias opciones métodos de pago como por ejemplo la financiación ISA, que permite a los estudiantes empezar a formarse y pagar solo cuando esté trabajando. En su página web tienes todas las convocatorias para el próximo 2024 en las ciudades de Madrid, Barcelona y Valencia o si lo prefieres, 100% online.
2. Inteligencia Artificial, Ciberseguridad, Tech Management y DevOps: áreas tech más demandadas para especializarte en el sector.
El primer ejemplo claro es la gran evolución que ha tenido la Inteligencia Artificial durante los últimos doce meses. Tantas novedades, herramientas y avances que suponen una ventaja competitiva para las empresas hace que crezca la necesidad de profesionales dedicados exclusivamente a manejar la capacidad de la IA en sus negocios.
De igual forma, la Ciberseguridad ha sido uno de los grandes temas del 2023 y que seguirá siendo un imprescindible para el 2024. Hemos visto numerosos ataques y crisis cibernéticas en compañías muy importantes, lo que provoca una concienciación global para todas las empresas y demanda más profesionales especializados. Por ejemplo: Analista de Ciberseguridad, Pentester, Analista Forense…
La creciente adopción de metodologías ágiles y la necesidad de acelerar la entrega de software de calidad está impulsando la demanda de profesionales DevOps en las organizaciones de todo el mundo. La demanda de Ingenieros DevOps aumentará en un 30% hacia el año 2027 (según el portal de empleo australiano Seek.com).
Por último, la figura de Liderazgo Tecnológico seguirá manteniéndose y afianzándose como figura clave en las empresas para dirigir a los equipos IT con visión estratégica y de negocio. Ser CTO, Tech Lead, Manager IT requiere de un bagaje, pero también se necesita aprender nuevas habilidades para gestionar equipos con propósito, siendo consciente del impacto que tiene esta figura en una organización.
Recuerda que todas las empresas tienen a su disposición la bonificación de FUNDAE (Fundación Estatal para la Formación en el Empleo) para la formación de empleados y que puedes proponer como una opción de financiación estupenda.
Para empresas: Mejora tu equipo con formación tech a la orden del día y aumenta la fidelización de tu talento
En un año la tecnología cambia y evoluciona tan rápido que para las empresas es muy difícil estar actualizados y aplicar las novedades al mismo ritmo. Si unimos esto a otro de los grandes temas del año como es la fidelización del talento tecnológico, se hace imprescindible que las empresas incorporen planes de carrera y formación para sus empleados y empleadas.
El caso de Between Technology es un claro ejemplo de cómo una empresa detecta y entiende la importancia de la formación de sus empleados para que puedan evolucionar en su carrera profesional, adquirir nuevas habilidades prácticas y que esto se traduzca en una mayor productividad para la empresa y un crecimiento en los resultados del negocio.