Mostrando entradas con la etiqueta Privacidad. Mostrar todas las entradas
Mostrando entradas con la etiqueta Privacidad. Mostrar todas las entradas

domingo, septiembre 14, 2025

Entrevista con Meredith Whittaker, Presidente de Signal. Transcripción y traducción al Español

La semana pasada entrevisté a Meredith Whittaker sobre privacidad, ética de la IA y, por supuesto, Signal. El vídeo está en Youtube, pero si eres de los que aún disfrutan leer entrevistas, aquí tienes la transcripción. Para el placer de leer las palabras de Meredith.

Figura 1: Entrevista con Meredith Whittaker, Presidente de Signal.
Transcripción y traducción al Español

Sabes que he estado siguiendo Signal desde el principio. Tuve la oportunidad de estar en muchas, muchísimas conferencias con Moxie. Hemos compartido vino alrededor del mundo, en Buenos Aires, en Noruega, etc. Así que conozco muy bien el proyecto y los valores que hay detrás, así que preparé esas diez preguntas. Siéntete libre de responderlas como quieras; si alguna no te gusta, cámbiala, ¿de acuerdo? 1.- Voy a empezar con dos preguntas, sobre tus orígenes y hablando sobre la ética de la IA, que para mí son interesantes, especialmente porque estudiaste alfabetización retórica y luego te convertiste en una de las principales voces mundiales en ética de la inteligencia artificial, lo cual es fascinante. ¿Cómo fue ese proceso para Meredith Whittaker trabajando en empresas tecnológicas y estando tan preocupada por los derechos civiles?

Bueno, creo que al principio me interesé y quizá estuve preocupada por la IA no por mis estudios de literatura o retórica, sino porque había trabajado mucho en la construcción de sistemas de medición a gran escala. Y así, estaba efectivamente en el corazón de los procesos para crear datos y luego hacer afirmaciones sobre esos datos como una representación fiable de la realidad dinámica. Y sabía lo difícil que era eso.

Sabía que los datos siempre eran imperfectos. Siempre parciales. Nunca contaban toda la historia. Así que, a principios de la década de 2010, cuando vi por primera vez el aprendizaje automático y luego todos decidimos usar el término IA, convertirse en lo siguiente tras el artículo de AlexNet y el reconocimiento de que las GPU podían potenciar enormemente el cómputo disponible para el entrenamiento de redes neuronales.


Me preocupé mucho al principio porque las fuentes de datos que se utilizaban y las afirmaciones que se realizaban sobre los modelos creados con esos datos no eran precisas, no eran suficientes para reflejar lo que decían, ciertamente no eran suficientes para crear una máquina inteligente, y los tipos de historias que contamos sobre inteligencia, sobre sofisticación computacional, servían para persuadir a la gente de confiar y dar credibilidad, en definitiva, a grandes empresas, grandes actores corporativos que pueden o no tener como objetivo central el beneficio social amplio y que crean estas tecnologías y herramientas tras cortinas de secreto corporativo.

Por supuesto, no son open source. No están abiertos al escrutinio. Y estamos entrando en una situación donde, en última instancia, se nos pide confiar en la salida de una caja negra como si fuera inteligente, como si fuera más objetivo y fiable que nosotros, sin manera de escrutarlo. Y sigo pensando que esas dinámicas están presentes y sigo pensando que es una posición muy arriesgada como mundo y como sociedad, dado que nuestros intereses no siempre coinciden con los de los directorios de esas pocas empresas.

2.- ¿Crees que el cambio significativo puede venir desde dentro de las grandes empresas tecnológicas, o los modelos externos y alternativos son el único camino posible?

¿Te refieres a un cambio positivo significativo?

Exacto. Sí.

Sabes, he visto a mucha gente dentro de esas empresas hacer cosas positivas. Hay muchas personas que defienden ciertos valores, ciertas prácticas. Pero no creo, creo que si la lógica de la organización es crecer a cualquier coste, generar ingresos a cualquier coste, y el cambio social positivo cuesta dinero o frena el crecimiento, no verás ese cambio positivo dentro de esas empresas.

Y creo que, en última instancia, cuando hablamos de entender qué cambios podrían tener un impacto social positivo amplio, categóricamente necesitas una amplia participación. Necesitas entender lo que la gente quiere y necesita y las condiciones de vida.

Y eso requiere alguna forma de participación democrática, de comprensión de lo que pasa en el terreno y luego qué medidas hacen falta para remediarlo, sean tecnológicas o no.

3.- Hablas de crecimiento, pero Signal ha crecido hasta cerca de 70 millones de usuarios manteniendo un modelo de negocio completamente distinto al de otras plataformas tecnológicas. ¿Qué hace que Signal sea fundamentalmente diferente de otras apps de mensajería, más allá del sistema técnico de cifrado que todos conocen?

Bueno, como sabes, se fundó hace más de una década con una visión muy clara, por Moxie, que sé que conoces, y se mantiene fiel a esa visión. Es inflexible en su objetivo de proporcionar un medio para ejercer el derecho humano a la comunicación privada, incluso en un mundo donde ese derecho ha sido clausurado y erosionado en casi todos los ámbitos.

Así que hacemos una cosa y la hacemos extremadamente bien. Y somos consistentes en esa cosa. Llegamos en un momento en el que el mercado no estaba saturado. Antes de que el iPhone estuviera ampliamente distribuido, antes de que los smartphones fueran ubicuos. Antes de WhatsApp. Era otro panorama en el ecosistema de internet o las aplicaciones. A través de un trabajo constante y, diría, visionario que viene de Moxie, Trevor y los fundadores, Signal ha desarrollado una reputación, ha creado un efecto red.


Ha sido open source desde el principio. Así que no tienes que creerme a mí, ni a Moxie, ni a nadie. Puedes mirar nuestros repositorios. Puedes ver que sí, lo que decimos es lo que hacemos. Y si lo cambiamos, puedes señalárnoslo. Así que hay un compromiso con la misión, con la visión, y creo que una pureza en lo que hacemos que... es profundamente apreciada en el ecosistema, pero que con el tiempo ha construido el tipo de confianza que no puedes fabricar de un día para otro.

Es una confianza ganada por la acción constante, por el compromiso que Signal ha demostrado con la misión de las comunicaciones privadas. Y eso está en todo lo que hacemos, es lo único que hacemos, es nuestro camino. Y creo que eso es lo que nos hace especiales.

No intentamos complacer a los accionistas. No intentamos añadir un widget de IA. No intentamos ser la app para todo. Hacemos una cosa, la hacemos muy bien y la hacemos porque creemos que es fundamental para el futuro de un mundo habitable, que ese derecho permanezca, ese derecho a comunicarse en privado.

Bueno, y para hacerlo, la estructura sin ánimo de lucro que mantiene Signal no es un lujo, sino esencial, como has dicho muchas veces. Exactamente.

4.- Has dicho también que la mayoría de la gente no son usuarios de inteligencia artificial, sino que están sometidos a su uso. ¿Cómo conecta la misión de Signal con esta preocupación más amplia sobre los desequilibrios de poder tecnológicos?

Bueno, creo que sabes que Signal no es una compañía de IA, Signal hace una cosa muy, muy bien y, en cierto sentido, está en tensión con el paradigma dominante de la IA, que es el enfoque de big data, cuanto más, mejor, que requiere enormes cantidades de datos, podemos considerar eso como fruto de la vigilancia para entrenar modelos y luego necesita muchos datos para la inferencia, ya sean tus prompts o tu historial de navegación, tus emails para crear un resumen o lo que sea.

Estos modelos necesitan tus datos. Y, por supuesto, ¿cuál es el asunto de Signal? Queremos recopilar la menor cantidad posible de datos. No queremos tus datos. No queremos poder entregarlos. Si me volviera malvada de repente, tampoco quiero poder entregarlos.

No queremos tener acceso a ellos. Así que hay una tensión fundamental entre el compromiso claro con la privacidad que encarna Signal y la creencia que tengo de que es posible un ecosistema tecnológico que no se base en recopilar y vender tus datos, en procesar tus datos y usarlos para decir quién eres y dónde encajas en la vida, que no parta de esas premisas. Y el estado actual de la IA, que por supuesto exige más y más datos y produce más y más datos.

5.- Esto de la privacidad no es fácil. Signal necesita unos cincuenta millones al año sólo para mantener la operación y supone un reto estructural construir tecnología sostenible fuera de la economía de la vigilancia. ¿Cómo imaginas la sostenibilidad a largo plazo para la empresa? ¿Y qué debería cambiar en el ecosistema tecnológico para que tecnologías centradas en la privacidad, como Signal, no sólo sean posibles sino financieramente viables a escala?

Sí. Bueno, mira, ser una organización sin ánimo de lucro no es divertido. No es especialmente virtuoso. Es bastante difícil cuando gestionas una infraestructura de comunicaciones en tiempo real a gran escala que es confiada por cientos de millones de personas en todo el mundo. Para nosotros, ser sin ánimo de lucro es necesario porque, como hemos dicho, el beneficio y los ingresos provienen de... recopilar y monetizar datos, ya sea para vender anuncios o para entrenar tu modelo de IA. Ese es el motor de la economía tecnológica en la que existimos. Y ser sin ánimo de lucro no significa que para Signal sea más barato desarrollar y mantener esta infraestructura.

Es muy, muy caro. Cincuenta millones de dólares al año es un presupuesto muy bajo para algo como Signal. En la mayoría de empresas con ánimo de lucro, el equipo sería mucho mayor y gastaríamos mucho más, pero lo mantenemos muy limitado y muy enfocado. Pero aun así, esto no es un proyecto barato de voluntarios. Estas infraestructuras críticas que requieren conectividad global en tiempo real son carísimas. Así que estamos explorando distintas formas de financiar esto.

Actualmente existimos gracias a donaciones. Unas setenta por ciento de nuestros ingresos provienen de grandes donantes encabezados por Brian Acton, cofundador de WhatsApp, quien ha dado una contribución generosa. También tenemos a Jack Dorsey y otros que han aportado una financiación importante. Un treinta por ciento de nuestra financiación proviene de pequeños donantes, es decir, personas que donan cinco o diez dólares al mes, lo cual es un número significativo de personas y estamos muy agradecidos.

Figura 5: Una entrevista con Meredith Whittaker, Presidente de Signal
(Entrevista completa en inglés en Youtube)

Buscamos ampliar nuestra base de pequeños donantes, vamos a lanzar muy pronto una función freemium, ofreciendo copias de seguridad seguras, para recuperar Signal si tu teléfono sufre algún desastre. Por una pequeña cuota, si quieres guardar todos tus archivos multimedia para siempre, o cien gigas de tus archivos para siempre, podrás pagar 1,99 dólares al mes para hacerlo.

Así que estamos experimentando con el modelo freemium. Hemos estudiado la opción de una dotación, otras fórmulas, y exploramos lo posible. Pero sin socavar la misión central, porque lo que no podemos tener es un accionista o miembro de la junta en una estructura con ánimo de lucro presionándonos para debilitar la privacidad porque entienden que la forma de ganar dinero en la actual economía tecnológica es recopilar y monetizar datos, es debilitar la privacidad. Y ese es el equilibrio que logramos.

Sí, bueno, cuando leí cincuenta millones de dólares al año, y llevo muchos años gestionando presupuestos para empresas tecnológicas, creando tecnología, pensaba “wow, cincuenta millones solo para todo, crear, operar, innovar... Es magia”. Y mencionabas a Jack Dorsey. Él sabe muy bien lo caro que es crear tecnología a escala. Es asombroso lo que hacéis.

Y no es fácil porque tenemos un futuro y hay que seguir trabajando en privacidad. Hablamos de computación cuántica, cada día surgen nuevas amenazas para atacar la privacidad como el RSA que cada día alguien intenta romper, y tenemos agentes de IA que pueden atacar directamente la seguridad del dispositivo y afrontáis otro reto que es el endpoint. También tenemos cambios regulatorios en cada país y según el mensaje político del momento, está cambiando.

6.- ¿Cómo sería el éxito para Signal en la próxima década? ¿Qué papel esperas que juegue en la configuración de un futuro digital diferente?

El éxito para Signal en la próxima década sería sobrevivir y prosperar. Nuestro objetivo es que cualquier persona, en cualquier parte del mundo, pueda tomar su dispositivo y usar Signal fácilmente para contactar a cualquiera. Vemos la privacidad como un derecho humano fundamental; debe integrarse como sentido común en nuestras aplicaciones y servicios.

Por supuesto, aún no hemos llegado a eso, pero el éxito y el crecimiento que estamos viendo nos da esperanza a medida que las personas se sensibilizan personal y socialmente sobre lo importante que es comunicar en privado. Pero tendremos que resistir leyes mal planteadas y a menudo maliciosas que buscan, como siempre desde los años 90, socavar la posibilidad de privacidad para la gente común, confiando en el pensamiento mágico de que sólo gobiernos y fuerzas del orden pueden tener privacidad.

Por supuesto, sabemos que si hay una puerta trasera, es para todos, y se socava para todos. Así que seguimos luchando contra eso y haciendo divulgación.

También estamos, como mencionas, muy preocupados por la integración de supuestos agentes de IA, estos sistemas que suelen ser grandes modelos de lenguaje integrados al nivel del sistema operativo en varios sistemas.

Intentan hacer cosas por ti sin tu permiso, actuar automáticamente con acceso a muchos datos de formas inseguras que amenazan nuestra capacidad de proteger la privacidad a nivel aplicación. Hemos dado la voz de alarma por ello.

Vamos a colaborar con gente de la industria para proponer salvaguardas de sentido común y deshabilitaciones a nivel desarrollador. Pensamos que debe ser muy fácil y claro para apps como Signal “apagar el acceso” a tus datos por parte del agente de IA.

Esto está fuera de límites. No puede estar en el contexto del agente, no puede tocar los mensajes de Signal. Es demasiado importante. Todas las apps deberían poder decidir eso. Estamos moviendo propuestas y remedios para que Signal y apps similares mantengan la capacidad de proteger a sus usuarios.

7.- Ahora mismo todos los sistemas operativos incluyen tecnología de IA en el software base y si no aceptas los términos y condiciones muchas funciones del teléfono o del ordenador quedan bloqueadas, así que para los usuarios es difícil evitar esa fase y no dejar que el software de IA acceda a sus datos. Hay que hacer entender qué están aceptando. Y hablas de actores maliciosos. En el pasado, Signal ha sido infraestructura clave en conflictos. No quiero mencionar ninguno porque todos han sido diferentes. Pero ¿cómo equilibras el papel de Signal como herramienta para todas las partes en un conflicto? ¿Qué significa operar en ese espacio de disputa global?

Para poder servir a todos y garantizar privacidad, Signal debe estar ampliamente disponible. Así es la verdad de la encriptación. O funciona para todos, o está rota para todos. Signal no sabe quién usa Signal. Nos esforzamos por no tener datos. Oímos que gobiernos, defensores de derechos humanos, periodistas, militares, directivos… en fin, cualquiera con información sensible usa Signal en alguna capacidad, pero mantenemos nuestro camino.

Nos limitamos a crear una plataforma robusta, gratuita y privada de comunicación para todos, porque creemos que es un derecho fundamental y todos deberían tener acceso. Eso incluye a las personas que quieres y a las que no. Signal está disponible para todos.

Si no, entonces no cumplimos nuestra misión y tal vez socavamos las garantías de privacidad que sustentan esa misión.

Sí, pero debe ser difícil porque seguro que muchas veces recibes presiones de distintos actores y en muchos países para cumplir la ley, etcétera. No es fácil.

8.- Hablabas de la IA hambrienta de datos. Uno de los lugares más afectados es la web, donde los grandes LLMs han estado y siguen alimentándose de datos y destruyen el tráfico y el negocio que los publicadores tenían antes. ¿Cómo ves el futuro de las webs ahora que los grandes modelos de IA se han convertido en máquinas de respuesta para usuarios con todo el contenido creado en tiempo real accesible sin compartir tráfico con los creadores de contenido?

Creo que sin un cambio significativo de rumbo, será la muerte de la web abierta y es una perspectiva muy sombría para el futuro de los contenidos y la creatividad humana, la escritura, el arte, la música en general. Es muy preocupante. No es un área que haya estudiado a fondo. No la conozco como otras áreas, pero aun así me preocupa bastante. Y desearía que tuviésemos mejores herramientas que el copyright para remediar esto.

9.- Última pregunta, no quiero robarte más tiempo. Si sólo pudieras decirle una cosa a quienes usan otras plataformas de mensajería, ¿qué les dirías sobre migrar a Signal? Así que, para convencer a alguien de pasarse a Signal, ¿cuál sería tu mensaje?

Primero quiero decir: usas un mensajero porque quieres hablar con tus amigos. La comunicación trata de relaciones humanas. No es cuestión de pureza o de elegir la app correcta. Así que te entiendo. Quieres estar en el grupo, ir a la fiesta. Yo también. Eso es humano. De eso se trata la vida.

Sin embargo, pasa tus grupos cercanos a Signal, porque no quieres verte en esas situaciones, como dicen. No quieres que tu texto termine filtrado en un volcado de documentos. No quieres que una filtración publique tus chats en línea. No quieres que un cambio de régimen convierta en ilegal lo que hoy es normal y empiecen a revisar bases de datos para perseguir a la gente.

Creo que Signal funciona muy, muy bien. Es una app encantadora, elegante, sin funciones inútiles que algún ejecutivo obligue a integrar para cumplir con objetivos de la empresa. Sinceramente es la app de mensajería más limpia y eficiente que conozco.

Empieza pasando algunos de tus grupos a Signal. Poco a poco la gente migrará porque sentirán que lo que dicen, el desahogo que mandan a su mejor amigo, la nota de voz que comparten en su grupo, nunca aparecerá en una filtración.

Nunca se verá en una brecha de datos y nadie lo malinterpretará tras acceder a tus datos más íntimos.

Me encanta escucharte. Ha sido un honor tener esta charla contigo. Me siento feliz de haber conversado contigo. Muchas gracias, Meredith. Muchas gracias.

Y gracias por mantener la buena lucha tantos años.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


viernes, septiembre 12, 2025

An Interview with Meredith Whittaker (transcript)

Last week I interviewed with Meredith Whittaker about Privacy, AI Ethics and, of course, Signal. You have the video in Youtube, but if you are of those that still love reading interviews, here you have the transcript of it. For the joy of reading Meredith words.


Interview with Meredith Whittaker

You know that I've been following Signal in the beginning, I had the opportunity of being in many, many conferences with Moxie. We've been sharing wine around the world in Buenos Aires, in Norway, etc. So I know very well the project and the values that are behind the project so i created that ten questions. Feel free to answer answer them your own way so if you don't like anything then change it, okay?


1.- So I'm going to start with two questions, about your backgrounds and talking about AI ethics, that to me are interesting, especially because you studied rhetorical literacy and later become one of the world's leading voices in artificial intelligence ethics, which is fascinating. How was that process for Meredith Whitettaker working in tech companies and to be so worried about civil rights?

Well, I think I was initially interested and maybe a bit concerned around AI based not on my literature, my rhetoric backgrounds, but because I had done a lot of work building large scale measurement systems. And so I was effectively at the heart of the processes for creating data and then making claims about that data as a reliable representation of dynamic reality. And I knew how difficult that was.

I knew that data was always imperfect. It was always partial. It was never the whole story. And so in the early twenty tens, when I saw first machine learning and then we all decided to use the term AI become the next big things following the Alex Net paper, following the recognition that GPUs could effectively supercharge the compute available for neural network training.

Figura 3: Interview with Meredith Whittaker

I became very concerned initially that the data sources that were being used and the claims that were being made about these models created with this data were not accurate, were not sufficient to reflect the things that were being claimed, were certainly not sufficient to create an intelligent machine, and that the types of stories we tell about intelligence, about computational sophistication, were serving to entice people to trust and lend credibility to ultimately what are large companies, large corporate actors who may or may not have as their core objective broad social benefit and who create these technologies and these tools behind shrouds of corporate secrecy.

They're, of course, not open source. They're not open to scrutiny. And we were walking into a situation where we were ultimately being asked to trust whatever the output of a black box was. as if it were intelligent, as if it were more objective and reliable than we were without a way to scrutinize that. And I still think those dynamics are at play, and I still think that is a very risky position to be in as a world and as a society, given that our interests don't always overlap with the boardrooms of these handful of companies.

2.- So do you believe that meaningful change can come from within big tech companies or is external and alternative models the only way to go path forward?

You mean like meaningful positive change?

Right. Yeah.

You know, I have seen a lot of people within those companies do things that were positive. There are many people who hold the line on certain values, on certain practices. But I don't think, I think fundamentally, if the logic of an organization is grow at all costs, you know, generate revenue at all costs, and positive social change will cost money or will hamper growth, you're not going to see positive social change come from those companies.

And I think ultimately when we're talking about even understanding what those changes might be that would have a broad positive social impact, you categorically need broad participation. You need to understand what people want and what people need and what the conditions of life are.

And that requires one or another form of democratic participation of understanding what's happening on the ground and then what measures are needed to remediate it, whether those measures are technological or not.

3.- You are talking about growth, but Signal has grown to around seventy, seven-zero million users while maintaining a completely different business model from the other tech platforms. What makes Signal fundamentally different from other messaging apps beyond just the technical encryption system that everybody knows?

Well, as you know, it was founded over a decade ago with a very clear vision by Moxie, who I know you know, and it stays true to that vision. It is uncompromising in its pursuit of providing a means to exercise the human right for private communication, even in a world where that right has been foreclosed and whittled away in almost all other realms.

And so we do one thing and we do it extremely well. And we are consistent with that one thing. We came along at a time when the market wasn't saturated. This is before the iPhone was largely distributed, before smartphones were ubiquitous. This is before WhatsApp. This is a very different landscape in the internet or the application ecosystem through consistent and, I would say, visionary work that has its source with Moxie and with Trevor and with those founders, Signal has developed a reputation, developed a network effect.


It has been open source since the beginning. So you don't have to take my word for it. You don't have to take Moxie's word for it. You don't have to take anyone's word for it. You can look at our repos. You can see that, yes, the things that they say are the things that it does. And if we change that, you can call us out on it. And so there is a commitment to mission, a commitment to vision, and I think a purity to what we do that is... deeply appreciated across the ecosystem, but that over time has built the kind of trust that you can't just manufacture overnight.

It's a trust that is gained by consistent action through the type of commitment that Signal has shown to the mission of private communications. And that is in everything we do, that is the one thing we do that is our lane. And I think that is what makes us special.

We're not trying to please shareholders. We're not trying to add a little AI widget. We're not trying to boil the ocean and become the everything app. We do one thing, we do it very well, and we do it because we believe it is fundamentally important to the future of a livable world that this right remain, this right to communicate privately.

Well, and to do that, that non-profit structure that Signal is maintaining is not that nice to have, but actually essential, as you've been saying many, many times. 

Exactly.

4.- Now, you said also that most people are not users of artificial intelligence, but rather subjected to its use. How does Signal's mission connect to this broader concern about technological power imbalances? 

Yeah, well I think you know signal is not an ai company again signal does one thing very very well and in some sense it's attention with some of the the dominant paradigm of ai right now which is this big data bigger is better approach that requires huge amounts of data you know we could think of that as the product of surveillance in order to train these models and then requires a huge amounts of data to inform the models for inference, whether it's your prompts or your browser history to create a summary or your emails to create a summary or what have it.

These models need your data. And of course, what is Signal's whole deal? We want to collect as close to no data as possible. We don't want your data. We don't want to be able to give your data up. If I turned evil overnight, I still don't want to be able to give your data up.

We don't want to have access to it. And so there is a fundamental tension there between the clear and commitment to privacy that Signal embodies and the belief that I have that a tech ecosystem that is not based on the collection and sale of your data, on the processing of your data and the use to tell you who you are and where you fit in life, that a tech ecosystem that doesn't build on those premises is possible. And the current state of AI, which of course demands more and more and more data and produces more and more and more data.

5.- This business of privacy is not easy. Just, Signal, goes about fifty million a year just to maintain this operation and it makes a structural challenge of building sustainable technology outside of this surveillance economy. How do you envision the long-term sustainability for the company? And what would need to change in the broader tech ecosystem to make privacy-first technology like Signal not just possible, but financially viable at scale?

Yeah. I mean, well, look, being a nonprofit it's not fun. It's not particularly virtuous. It's a bit difficult when you're running a large-scale, real-time communications infrastructure that is trusted by hundreds of millions of people around the world. I think for us, being a nonprofit is necessary because, as we discussed, profit and revenue come from... collecting and monetizing data, whether it be to sell ads or to train your AI model. And that's the engine of the tech economy that we exist in. And being a nonprofit doesn't mean it's any cheaper for Signal to develop and maintain this infrastructure.

It's very, very expensive. You know, fifty million dollars a year is a a very low budget for something like Signal. In most for-profit companies, we would have a much bigger team, we would be spending a lot more, and we keep it very narrow and very focused. But nonetheless, this is not a cheap volunteer project. These critical infrastructures that require real-time connectivity globally are very, very expensive. And so we are exploring many ways to finance this.

Currently, we exist on donations. We have about seventy percent of our revenue comes in from large donors helmed by Brian Acton, who has provided a generous contribution. uh he's the the co-founder of Whatsapp uh we also have Jack Dorsey and others who provided significant funding uh and then we have about thirty percent of our funding comes from smaller donors so you know people in the app who donate five or ten dollars a month and you know that's a significant number of people and we're very very grateful for that we're looking at growing our small donor pool we're looking at we're launching a freemium feature very soon so we'll be adding use uh secure backups um which will allow you to recover your signal if your phone say gets thrown in a lake or or some catastrophe like that happens and for a small fee if you want to save all of your media files forever or a hundred hundred gigs of your media files forever you will be able to pay one a dollar and ninety nine cents a month to do that.

So we're experimenting with a freemium model. We've looked at things like an endowment. We've looked at other vehicles and we're ultimately we're exploring what is possible. But again, without undermining that core mission, because what we can't have is a shareholder or a board member in a for profit structure pushing us to undermine privacy because they understand that the way to make money in the current tech economy is to collect and monetize data, is to undermine that privacy. And so that's really the balance that we are striking.

Yeah, well, when I was reading, fifty million dollars a year, and I've been many, many years managing budgets for big tech companies, creating technology, I was saying, oh, this is amazing, fifty million. dollars just for everything, creating the technology, operating the technology, innovate, etc. It's doing magic. And you were mentioning Jack Dorsey. He knows very well how expensive is creating technology at scale. So it's amazing what you do. 

And it's not easy because we have a future and we need to continue working in privacy. We are talking about quantum computing. We have every day new threats in in attacking privacy like the RSA that every day people are trying to to crack it, and we have AI agents that can undermine directly the device security and you are facing another challenge which is the end point.  We have the regulatory changes in every country and depending how is the political message right now, it's changing.

6.- What does success look like for Signal in the next decade? And what role do you hope it plays in shaping a different kind of digital future?

Yeah, well, I think success for Signal in the next decade looks like surviving and thriving our goal is that everyone in the world everywhere can pick up their device and easily use signal to contact anyone else we see privacy as a fundamental human right it is a fundamental human right and that this should be integrated as common sense into our applications and services.

We're obviously not there yet but your Signal success and the growth that we're seeing as people become more personally sensitized to the stakes of privacy to how important it is to be able to communicate privately is giving me some hope there but of course we will have to push back on misguided and often malicious legislation that aims as it always has since the liberalization of encryption in the late nineties to undermine the ability for your common people to have privacy you know based on the magical thinking that it's somehow possible to allow only governments and law enforcement access to privacy.

And of course, we know that if there's a backdoor anywhere, it is a backdoor for everyone and you have undermined it for everyone. So we continue to push against that legislation and try to do advocacy and education around the importance to strong privacy for everyone.

We are also, as you mentioned, very concerned with the integration of so-called AI agents, these software systems that involve usually large language models that are being integrated at the operating system level across various operating systems.

They're intended to do things on your behalf without your permission. So act autonomously based on access to huge amounts of data in ways that are not secure and that pose a real threat to our ability to continue providing robust privacy at the application layer. So we have raised the alarm there.

We're going to be working with people across the industry to propose common sense safeguards and developer level opt outs. We think it needs to be very it needs to be easy and clear for apps like Signal to flip a switch and say, no, you cannot access Signal data for your AI agent.

This is off limits. This cannot become part of your context window. You are not allowed to touch Signal messages. This is too important and that all applications should be able to make that call. And we're pushing on those and some other, again, remediations that could maintain the ability for Signal and apps like Signal to make their own choices and protect their users at the application level.

7.- Right now all operating systems are having the AI technology on the software base and if you don't accept the terms of condition many of the features that the smartphone or the of the desktop machine is having are completely blocked, so for a user it's difficult to to to stop that phase and not letting the AI software getting access to the data. So we need to make people understand what they are saying Yes to. So it's not easy. And you were talking about bad actors. In the past, Signal has become crucial infrastructure during conflicts. I don't want to mention any of them because each of them has been different. But how do you balance Signal's role as a tool for them, for each of the parts in that conflict? What does it mean for Signal to operate in this contested space of a world in conflict?

In order to work for anyone, in order to provide privacy, Signal needs to be available widely. And I think this is really the truth of encryption. Either it works for everyone or it's broken for everyone. So, you know, Signal doesn't know who uses Signal. We go out of our way to have as little data as possible. We do hear from people that governments, human rights workers, journalists, militaries, boardrooms, basically anyone who has high stakes information uses Signal in some capacity, but we remain in our lane.

Our lane is providing robust freely available private communications platform for everyone across the board. We believe this is a fundamental human right, and everyone should have access to it. And that means the people you love, and that means the people you don't love. Ultimately, Signal is available for everyone.

And if it's not, then we're not, you know, If it's not, then we are undermining our mission and potentially undermining the privacy guarantees on which that mission is based. Yeah, but should be difficult because for sure many, many times you receive pressure from different actors and in many countries asking for accomplishing the law, etcetera. So it's not easy.

8.- You were talking about artificial intelligence eager for getting data. And one of the most affected places for doing that is the web in which all the big LLMs have been or are constantly eating data from webs and the traffic is completely destroyed for the business that the publisher of the content were having until they appear. How do you see the future of the website with the big artificial intelligence models becoming the answering machine for users with all the content that is created in real time accessible without sharing the traffic with the content providers?

I think without a significant change in trajectory, it spells the death of the open web and it strikes a very grim note for the future of human produced content and creativity and writing, art, music in general. It's very concerning to me. It's not an area I've studied deeply. It's not an area that I am as familiar with as I am in other areas. But nonetheless, it is something that I am deeply concerned with. And it's something I wish we had better tools than copyright to remediate.

9.- And last question, I don't want to take more of your time. If you have only one thing to say to people that are simply using other messaging platforms, what do you say to them related to migrate to Signal?

asas So move to Signal, what should be your message for them? Well, first I want to say, The reason you use a messenger is because you want to talk to your friends. Communication is about human relationships. It's not about purity. It's not about choosing the right platform. So I understand you. I see you. It's fine. You're there because you want to be included in the group chat. You want to go to the party. So do I. That's human. That's the point of life. 

However, move your close groups to Signal because you just don't want to go out that way, as they say. You don't want to have that text leaked in a document dump. You don't want a data breach to publish your group chats online. You don't want a regime change to suddenly make what you're doing today, which is totally normal and legal, illegal in three years and begin to look through databases to prosecute people.

I think that Signal Happily works very, very well. It is lovely. It is classy. It is not full of crappy little features that some product manager forced us to integrate because they're trying to please a company OKR. It is honestly the sleekest and most well-functioning messaging app that I am familiar with.

And I think that start moving a couple of your groups to Signal. And then slowly more and more people will migrate because it just feels nicer to know that whatever you're saying, whatever rant you are typing out to your best friend, whatever random voice note you are sharing with your girls chat is never going to show up in discovery. 

It is never going to show up in a data breach and it will never be misconstrued by some enemy wanting to paint you in a bad light after they got access to your most intimate data. 

Well, I really love to listen to you. And I would like to say thank you. It's been an honor to listen to you this time. And I feel completely happy after having this talk. Thank you very much, Meredith. Thank you so much. 

And thank you for keeping up the good fight for so many years. 
It's been such a delight to talk to you. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, septiembre 10, 2025

Una entrevista con Meredith Whittaker, Presidente de Signal

Hace un par de días tuve la suerte de poder hacer una pequeña entrevista de 10 preguntas Meredith Whittaker, que es la Presidente de Signal Foundation, la organización sin ánimo de lucro que cuida de la financiación y el control de la plataforma y el servicio Signal, para garantizar que la privacidad del servicio no se ve comprometida por la sostenibilidad de la organización que la crea. 
Así que, como os podéis imaginar, la entrevista que le hice a Meredith Whittaker fue alrededor de estos temas. Yo he tenido la suerte de pasar tiempo con Moxie Marlinskpike, compartir cenas, vinos, charlas y algunas risas - que es el fundador de Signal -, así que cuando me surgió la oportunidad de tener un rato a Meredith, que es una de las líderes mundiales en AI Ethics, no podía pasar esta oportunidad. Aquí tenéis la entrevista en Youtube.

Figura 2: Una entrevista con Meredith Whittaker, Presidente de Signal

Además, si queréis contactar con ella, y preguntarle alguna cosa, Meredith Whittaker tiene abierto un buzón público en MyPublicInbox, donde estará al alcance de vuestros mensajes.
La entrevista es inglés, pero en un par de días os dejo la transcripción limpia en Inglés y en Español por si queréis leerla mejor.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, agosto 28, 2025

Cómo recuperar la imagen de un Estado de WhatsApp después de que haya caducado a partir de un comentario

Los estados de WhatsApp se presentan como publicaciones efímeras: duran 24 horas y desaparecen automáticamente. Al menos eso es lo que el usuario percibe. Sin embargo, la realidad es que las imágenes o vídeos que componen un estado no siempre se eliminan de todos los lugares por donde han viajado. Un ejemplo llamativo aparece cuando se hace un comentario a un estado, ya que el comentario queda en el chat privado como un mensaje independiente, y puede conservar una copia embebida de la imagen original.


Este comportamiento abre un debate interesante. ¿Estamos ante un fallo de privacidad, un “Leak” de WhatsApp, o simplemente es la forma en que la plataforma gestiona los mensajes y contenidos de manera global? Además, siempre una persona, al igual que comenta, podría hacer una captura de pantalla. El comentario es, sin duda, una copia en miniatura del estado. Entendido esto, la motivación de este análisis surge de una pregunta sencilla: ¿Qué ocurre con la imagen de un estado cuando caduca, pero alguien ha dejado un comentario en él? ¿Podríamos recuperarla con buena calidad en una investigación de OSINT en WhatsApp - WhatsApp INTelligence?

El sentido común diría que debería desaparecer todo lo relacionado con el estado, incluida la miniatura que se incrusta en el mensaje de respuesta. No obstante, al analizar el tráfico y los contenidos intercambiados, descubrimos que esa imagen puede seguir presente en el dispositivo de quien ha comentado el estado, como si hubiera hecho una captura.

Esto plantea dudas sobre la protección de datos y sobre el principio de limitación de la finalidad, uno de los ejes del Reglamento General de Protección de Datos (RGPD). Si el estado estaba diseñado para desaparecer, ¿por qué la imagen subsiste más allá de ese contexto? La verdad es que es complejo, ya que, ¿qué sucede si una imagen de estados se captura y se envía por WhatsApp? Lo mismo. Lo único que cambia aquí es que el usuario que hace el comentario lo hace sin la intención de copiarla sino de comentar, pero es el funcionamiento del servicio el que hace que lo copie.

Figura 3: La imagen del estado queda embebida en el
comentario como base64, aun después de caducar.

Para que cualquiera de los lectores podáis comprobarlo vamos a revisar este caso con un ejemplo. Tomamos para ello un estado cualquiera y realizamos un comentario. Al hacerlo, WhatsApp genera un mensaje en el chat con el autor del estado. Ese mensaje contiene dos partes:
  • El texto del comentario.
  • Una representación de la imagen del estado en formato data URI (una cadena con el prefijo data:image/jpeg;base64,...).
Esto quiere decir que la foto está embebida directamente en el mensaje como una cadena en Base64. Con un sencillo script en Python es posible decodificar esa cadena y reconstruir la imagen, aunque el estado original ya haya caducado.
import base64

# Cadena data URI copiada del mensaje de comentario
data_uri = "data:image/jpeg;base64,/9j/4AAQSkZJRgABAQAAAQ..."

# Separamos la cabecera del contenido
header, encoded = data_uri.split(",", 1)

# Decodificamos la parte base64
image_data = base64.b64decode(encoded)

# Guardamos los bytes en un fichero
with open("estado_recuperado.jpg", "wb") as f:
    f.write(image_data)
print("Imagen recuperada y guardada como estado_recuperado.jpg")
Lo que hace este fragmento es muy simple:
  1. Identificar dónde empieza el contenido en base64.
  2. Decodificarlo.
  3. Guardarlo como un fichero JPEG que se puede abrir con cualquier visor de imágenes.
Al aplicar el código, el resultado es inmediato: se obtiene un archivo .jpg con la misma imagen que formaba parte del estado comentado.

Figura 4: Reconstrucción de la fotografía original a partir de
un comentario en WhatsApp: el archivo .jpg recuperado
muestra la misma imagen que formaba parte del estado.

Al inspeccionar los metadatos (EXIF), descubrimos que WhatsApp los elimina casi por completo. Esto significa que la imagen está “limpia” de información sensible como fecha, localización GPS o modelo de dispositivo. No obstante, lo relevante es que la fotografía como tal sigue ahí. Además, se pueden aplicar técnicas de procesado digital para ampliar o mejorar la nitidez de la imagen:
from PIL import Image, ImageEnhance

img = Image.open("estado_recuperado.jpg")

# Ampliar al doble de tamaño con interpolación de calidad
img_up = img.resize((img.width*2, img.height*2), Image.LANCZOS)

# Mejorar contraste y nitidez
enhanced = ImageEnhance.Contrast(img_up).enhance(1.3)
enhanced = ImageEnhance.Sharpness(enhanced).enhance(1.5)

enhanced.save("estado_mejorado.jpg")
Con este segundo script conseguimos que la fotografía se vea más grande y algo más nítida, recuperando detalles que parecían perdidos por la compresión.

Figura 5: Comparación entre la imagen original extraída
y la versión mejorada con filtros, que muestra
mayor tamaño y nitidez.

Si ya quieres, puedes hacer lo mismo que hacía Chema Alonso en su artículo dedicado al "leak" de la miniatura de las Imágenes de 1 Solo Uso, donde aplicaba GenAI para hacer una ampliación del thumbnail de WhatsApp con Inteligencia Artificial, lo que daba unos resultados más que aceptables. Por suerte, WhatsApp eliminó ya el Thumbnail de las imágenes de 1 sólo uso.
En este caso sucede algo similar, ya que el hallazgo no es trivial. Aunque el estado haya caducado, la imagen permanece embebida en el mensaje del comentario, tal vez, de manera fortuita. 

Interpretación

Todo esto nos lleva a una cuestión de diseño. ¿Debería WhatsApp eliminar también la miniatura del comentario cuando expira el estado? ¿Sería suficiente conservar solo el texto del comentario, sin la imagen? ¿O realmente no es tan importante porque cualquier estado, como cualquier imagen o vídeo que se envíe por WhatsApp puede ser grabada y compartida, como vimos en el artículo de "WhatsApp: View-Once en fotos y vídeos con el "No Bug" de la visualización eterna para que que se graben con buena calidad"?


Desde el punto de vista del usuario, existe una expectativa de privacidad: si publico un estado temporal, quiero que desaparezca en 24 horas. Que una copia quede en un chat rompe esa expectativa. Pero que se pueda hacer una copia de ese estado, una captura, o una grabación con otro móvil debería estar dentro de su expectativa. Ahora bien, desde el punto de vista de la arquitectura de la aplicación, el comentario es un mensaje independiente, con un contenido que incluye una imagen. Bajo esta lógica, no se trataría de un “Leak”, sino de un funcionamiento coherente con el sistema de mensajería.

La línea es difusa, y tendríamos que dirimir si es un fallo de privacidad o una consecuencia inevitable de cómo se implementa la función de interacción con los estados en una aplicación de mensajería.

Conclusiones

Este caso demuestra cómo la percepción de privacidad que ofrece una aplicación puede diferir de su funcionamiento real. Los estados caducan, pero las imágenes asociadas a comentarios no siempre desaparecen. Con un simple script en Python se puede recuperar la foto, incluso cuando ya no está visible como estado.

Figura 8: WhatsApp Intelligence (WhatsINT):.
 Jugando con leaks de WhatsApp
Desde el prisma de la protección de datos, esto plantea dudas: ¿se ajusta al principio de caducidad y limitación de la finalidad, o debería mejorarse? No se trata necesariamente de un “Leak” en el sentido clásico, pero sí de un diseño que puede llevar a confusión a los usuarios y a un exceso de retención de datos. La suma de Leaks puede acabar siendo un problema, como ya hemos visto muchas veces.
La pregunta queda abierta: ¿debería WhatsApp rediseñar el comportamiento de los comentarios a estados para eliminar la imagen y conservar únicamente el texto? Mientras tanto, los usuarios deben ser conscientes de que un estado comentado no desaparece del todo, al igual que debían ser conscientes de lo que sucedía con la privacidad de los grupos públicos de WhatsApp.

Saludos,

Autor: Amador Aparicio,  escritor de los libros “Raspberry Pi para Hackers & Makers: PoCs & Hacks Just for Fun!” y "Hacking Web Technologies 2ª Edición"  y Miembro del Grupo de Investigación en Ingeniería de la Privacidad del Departamento de Informática de la Universidad de Valladolid.

lunes, agosto 25, 2025

Cómo investigar y hacer doxing con las sombras de una fotografía en la calle publicada en Instagram usando Google Earth Pro, ShadeMap, Google Street y ChatGPT

Dentro de una investigación de una fotografía, tal vez te interese saber dónde está hecha, o a qué hora se hizo. Cualquiera de esas dos informaciones puede requerir observar hasta el último detalle de la misma, los metadatos, letreros de tiendas, edificios, bocas de riego, postes de telefónica y, por supuesto, las sombras de los mismos en la calle.

Figura 1: Cómo investigar y hacer doxing con las sombras
de una fotografía en la calle publicada en Instagram usando
Google Earth Pro, ShadeMap, Google Street y ChatGPT

Para localizar un lugar, utilizar Google Street View suele ser una forma bastante sencilla donde, a partir de una simple foto de Instagram, se puede intentar buscar toda la información. Esto es parte de las disciplinas OSINT (Open Source Intelligence) que tantas veces han ayudado a resolver un caso.
En el caso de las fotografías de Instagram, hay dos puntos de información que son relevantes. El primero de ellos es la Localización de la fotografía. Normalmente no se publica la ubicación exacta de la fotografía, pero sí es común encontrarse con pueblos, ciudades, o lugares genéricos que pueden ayudar a acotar la búsqueda.

Figura 3: Muchas fotografías de Instagram llevan localización genérica.
Yo muy pocas veces hago uso de ese metadato. Pero....

Una vez que tengas el lugar genérico, por ejemplo Móstoles, son muchas las horas que te puedes pasar con Google Street View buscando las calles, y paseando a ver si alguna de esas se parece a la que se ve en la fotografía publicada en Instagram. Yo uso la versión de Google Street View que viene con Google Earth Pro que me resulta más cómoda y puedo llevarla a veces en entornos con conexión intermitente como el tren.

Figura 4: Google Street View en Google Earth Pro

Sin embargo, una cosa que puedes hacer para acotar la búsqueda, especialmente si no conoces el lugar es preguntarle a ChatGPT o Perplexity Pro que seguro que te ayudan. Por ejemplo, si en la calle se ven árboles, un bulevar o un centro de salud, puedes preguntarle y que te dé calles donde pasear.

Figura 5: Buscando un bulevar en Móstoles... o en cualquier otra ciudad.

Además, si hay detalles más finos, le puedes dar la información completa a ChatGPT o Perplexity que te va a ayudar a acotar la búsqueda para que des menos paseos, como ves en esta parte de la respuesta que nos da para este Prompt.

Figura 6: Acotando la búsqueda de la calle

Y una vez acotada, pues nos vamos a nuestro querido Google Street View, para comprobar si esta podría ser la respuesta a la información de la ubicación que estamos buscando. En este caso, nuestra mítica Avenida de Portugal, segmentada de la Nacional V hace muchos años.

Figura 7: Avenida de Portugal en Google Street View
con su bulevar, cera y árboles

Pero puede que nos encontremos con dudas, especialmente si queremos localizar una zona muy concreta de esa calle o una hora muy determinada, que son dos cosas totalmente diferentes. Para ello, en Instagram podemos extraer en primer lugar la hora de publicación. ¿Es la hora en la que se tomó la fotografía? Puede que sí o puede que no, pero si es que sí, va a ayudar mucho a acotar la ubicación.

Sacar la hora exacta de la publicación de una foto en Instagram

Este es un proceso muy sencillo. Basta con seleccionar la fecha de publicación de la fotografía, donde día el día del año, o cuánto hace que se publicó, y luego dar con el botón derecho para seleccionar la opción de Inspeccionar en Google Chrome.

Figura 8: Inspeccionar en Google Chrome la fecha
de publicación de una fotografía en Instagram

Esto nos llevará al código HTML, donde tenemos la etiqueta Time y el parámetro datetime. Allí verás la fecha y la hora exacta en formato ISO 8601 (por ejemplo, 2025-08-22T15:34:20.000Z), que normalmente está en UTC. Y si das con el botón derecho a la opción de Edit HTML podrás copiarlo

Figura 9: Hora exacta de publicación de una foto de Instagram

Una vez copiada, solo debes ver qué hora era exactamente. Puedes buscar la conversión correcta del formato, o decirle a Perplexity o ChatGPT que hagan el trabajo de convertirlo por ti. ¿Quién necesita un conversor cuando puede hacer Prompts?

Figura 10: Foto publicada a las 17:00 de la tarde en Instagram

Ya tenemos la hora en Instagram, ahora podes ir e investigar las sombras. Para eso necesitamos un mapa con la luz solar a cada día y hora, y para ello Google Earth Pro es perfecto. Primero debemos ir al menú de View y seleccionar la opción de Sun.

Figura 11: Activando la luz solar en los mapas 3D de Google Earth Pro

Una vez activado el "Sun" podemos ver la evolución de la luz solar en cada ubicación en todo el mundo, dependiendo del día y la hora que configures. En este vídeo se ve cómo puedes ir desplazándote por los horarios y ver cómo cambia la luz.

Figura 12: Luz solar por horas en Google Earth Pro

Una vez hecho esta configuración, puedes ir a la visión 3D del mapa, seleccionando un día y una hora exacta para poder ver las sombras en la forma correcta, lo que te va a ayudar a poder detectar si el sitio es el correcto o no. 

Figura 13: Configuración de Luz Solar a una determinada hora en Google Earth Pro

Es decir, primero lo compruebas en Google Street View y luego lo confirmas con las sombras incluidas en Google Earth Pro... o viceversa. Como podéis ver, se ven las sombras proyectadas de forma correcta a esa hora concreta.

Figura 14: 3D con Sombras en Google Earth Pro

En la visión 3D de Google Earth Pro ves la orientación de las sombras, pero el realismo no es igual que el de Google Street View. Allí son fotografías que puedes revisar, pero están tomadas a distintas horas y procesadas. Con la mezcla de las dos puedes investigar mejor la ubicación de una fotografía.
También lo puedes hacer con ShadeMap, como podéis ver aquí, que es otra buena alternativa. Esto te puede ayudar a saber a qué hora fue tomada una fotografía, si conoces el lugar, de forma muy ajustada, solo con ver la orientación y longitud de las sombras de los elementos que salen en ella.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares