Mostrando entradas con la etiqueta AI. Mostrar todas las entradas
Mostrando entradas con la etiqueta AI. Mostrar todas las entradas

domingo, septiembre 14, 2025

Entrevista con Meredith Whittaker, Presidente de Signal. Transcripción y traducción al Español

La semana pasada entrevisté a Meredith Whittaker sobre privacidad, ética de la IA y, por supuesto, Signal. El vídeo está en Youtube, pero si eres de los que aún disfrutan leer entrevistas, aquí tienes la transcripción. Para el placer de leer las palabras de Meredith.

Figura 1: Entrevista con Meredith Whittaker, Presidente de Signal.
Transcripción y traducción al Español

Sabes que he estado siguiendo Signal desde el principio. Tuve la oportunidad de estar en muchas, muchísimas conferencias con Moxie. Hemos compartido vino alrededor del mundo, en Buenos Aires, en Noruega, etc. Así que conozco muy bien el proyecto y los valores que hay detrás, así que preparé esas diez preguntas. Siéntete libre de responderlas como quieras; si alguna no te gusta, cámbiala, ¿de acuerdo? 1.- Voy a empezar con dos preguntas, sobre tus orígenes y hablando sobre la ética de la IA, que para mí son interesantes, especialmente porque estudiaste alfabetización retórica y luego te convertiste en una de las principales voces mundiales en ética de la inteligencia artificial, lo cual es fascinante. ¿Cómo fue ese proceso para Meredith Whittaker trabajando en empresas tecnológicas y estando tan preocupada por los derechos civiles?

Bueno, creo que al principio me interesé y quizá estuve preocupada por la IA no por mis estudios de literatura o retórica, sino porque había trabajado mucho en la construcción de sistemas de medición a gran escala. Y así, estaba efectivamente en el corazón de los procesos para crear datos y luego hacer afirmaciones sobre esos datos como una representación fiable de la realidad dinámica. Y sabía lo difícil que era eso.

Sabía que los datos siempre eran imperfectos. Siempre parciales. Nunca contaban toda la historia. Así que, a principios de la década de 2010, cuando vi por primera vez el aprendizaje automático y luego todos decidimos usar el término IA, convertirse en lo siguiente tras el artículo de AlexNet y el reconocimiento de que las GPU podían potenciar enormemente el cómputo disponible para el entrenamiento de redes neuronales.


Me preocupé mucho al principio porque las fuentes de datos que se utilizaban y las afirmaciones que se realizaban sobre los modelos creados con esos datos no eran precisas, no eran suficientes para reflejar lo que decían, ciertamente no eran suficientes para crear una máquina inteligente, y los tipos de historias que contamos sobre inteligencia, sobre sofisticación computacional, servían para persuadir a la gente de confiar y dar credibilidad, en definitiva, a grandes empresas, grandes actores corporativos que pueden o no tener como objetivo central el beneficio social amplio y que crean estas tecnologías y herramientas tras cortinas de secreto corporativo.

Por supuesto, no son open source. No están abiertos al escrutinio. Y estamos entrando en una situación donde, en última instancia, se nos pide confiar en la salida de una caja negra como si fuera inteligente, como si fuera más objetivo y fiable que nosotros, sin manera de escrutarlo. Y sigo pensando que esas dinámicas están presentes y sigo pensando que es una posición muy arriesgada como mundo y como sociedad, dado que nuestros intereses no siempre coinciden con los de los directorios de esas pocas empresas.

2.- ¿Crees que el cambio significativo puede venir desde dentro de las grandes empresas tecnológicas, o los modelos externos y alternativos son el único camino posible?

¿Te refieres a un cambio positivo significativo?

Exacto. Sí.

Sabes, he visto a mucha gente dentro de esas empresas hacer cosas positivas. Hay muchas personas que defienden ciertos valores, ciertas prácticas. Pero no creo, creo que si la lógica de la organización es crecer a cualquier coste, generar ingresos a cualquier coste, y el cambio social positivo cuesta dinero o frena el crecimiento, no verás ese cambio positivo dentro de esas empresas.

Y creo que, en última instancia, cuando hablamos de entender qué cambios podrían tener un impacto social positivo amplio, categóricamente necesitas una amplia participación. Necesitas entender lo que la gente quiere y necesita y las condiciones de vida.

Y eso requiere alguna forma de participación democrática, de comprensión de lo que pasa en el terreno y luego qué medidas hacen falta para remediarlo, sean tecnológicas o no.

3.- Hablas de crecimiento, pero Signal ha crecido hasta cerca de 70 millones de usuarios manteniendo un modelo de negocio completamente distinto al de otras plataformas tecnológicas. ¿Qué hace que Signal sea fundamentalmente diferente de otras apps de mensajería, más allá del sistema técnico de cifrado que todos conocen?

Bueno, como sabes, se fundó hace más de una década con una visión muy clara, por Moxie, que sé que conoces, y se mantiene fiel a esa visión. Es inflexible en su objetivo de proporcionar un medio para ejercer el derecho humano a la comunicación privada, incluso en un mundo donde ese derecho ha sido clausurado y erosionado en casi todos los ámbitos.

Así que hacemos una cosa y la hacemos extremadamente bien. Y somos consistentes en esa cosa. Llegamos en un momento en el que el mercado no estaba saturado. Antes de que el iPhone estuviera ampliamente distribuido, antes de que los smartphones fueran ubicuos. Antes de WhatsApp. Era otro panorama en el ecosistema de internet o las aplicaciones. A través de un trabajo constante y, diría, visionario que viene de Moxie, Trevor y los fundadores, Signal ha desarrollado una reputación, ha creado un efecto red.


Ha sido open source desde el principio. Así que no tienes que creerme a mí, ni a Moxie, ni a nadie. Puedes mirar nuestros repositorios. Puedes ver que sí, lo que decimos es lo que hacemos. Y si lo cambiamos, puedes señalárnoslo. Así que hay un compromiso con la misión, con la visión, y creo que una pureza en lo que hacemos que... es profundamente apreciada en el ecosistema, pero que con el tiempo ha construido el tipo de confianza que no puedes fabricar de un día para otro.

Es una confianza ganada por la acción constante, por el compromiso que Signal ha demostrado con la misión de las comunicaciones privadas. Y eso está en todo lo que hacemos, es lo único que hacemos, es nuestro camino. Y creo que eso es lo que nos hace especiales.

No intentamos complacer a los accionistas. No intentamos añadir un widget de IA. No intentamos ser la app para todo. Hacemos una cosa, la hacemos muy bien y la hacemos porque creemos que es fundamental para el futuro de un mundo habitable, que ese derecho permanezca, ese derecho a comunicarse en privado.

Bueno, y para hacerlo, la estructura sin ánimo de lucro que mantiene Signal no es un lujo, sino esencial, como has dicho muchas veces. Exactamente.

4.- Has dicho también que la mayoría de la gente no son usuarios de inteligencia artificial, sino que están sometidos a su uso. ¿Cómo conecta la misión de Signal con esta preocupación más amplia sobre los desequilibrios de poder tecnológicos?

Bueno, creo que sabes que Signal no es una compañía de IA, Signal hace una cosa muy, muy bien y, en cierto sentido, está en tensión con el paradigma dominante de la IA, que es el enfoque de big data, cuanto más, mejor, que requiere enormes cantidades de datos, podemos considerar eso como fruto de la vigilancia para entrenar modelos y luego necesita muchos datos para la inferencia, ya sean tus prompts o tu historial de navegación, tus emails para crear un resumen o lo que sea.

Estos modelos necesitan tus datos. Y, por supuesto, ¿cuál es el asunto de Signal? Queremos recopilar la menor cantidad posible de datos. No queremos tus datos. No queremos poder entregarlos. Si me volviera malvada de repente, tampoco quiero poder entregarlos.

No queremos tener acceso a ellos. Así que hay una tensión fundamental entre el compromiso claro con la privacidad que encarna Signal y la creencia que tengo de que es posible un ecosistema tecnológico que no se base en recopilar y vender tus datos, en procesar tus datos y usarlos para decir quién eres y dónde encajas en la vida, que no parta de esas premisas. Y el estado actual de la IA, que por supuesto exige más y más datos y produce más y más datos.

5.- Esto de la privacidad no es fácil. Signal necesita unos cincuenta millones al año sólo para mantener la operación y supone un reto estructural construir tecnología sostenible fuera de la economía de la vigilancia. ¿Cómo imaginas la sostenibilidad a largo plazo para la empresa? ¿Y qué debería cambiar en el ecosistema tecnológico para que tecnologías centradas en la privacidad, como Signal, no sólo sean posibles sino financieramente viables a escala?

Sí. Bueno, mira, ser una organización sin ánimo de lucro no es divertido. No es especialmente virtuoso. Es bastante difícil cuando gestionas una infraestructura de comunicaciones en tiempo real a gran escala que es confiada por cientos de millones de personas en todo el mundo. Para nosotros, ser sin ánimo de lucro es necesario porque, como hemos dicho, el beneficio y los ingresos provienen de... recopilar y monetizar datos, ya sea para vender anuncios o para entrenar tu modelo de IA. Ese es el motor de la economía tecnológica en la que existimos. Y ser sin ánimo de lucro no significa que para Signal sea más barato desarrollar y mantener esta infraestructura.

Es muy, muy caro. Cincuenta millones de dólares al año es un presupuesto muy bajo para algo como Signal. En la mayoría de empresas con ánimo de lucro, el equipo sería mucho mayor y gastaríamos mucho más, pero lo mantenemos muy limitado y muy enfocado. Pero aun así, esto no es un proyecto barato de voluntarios. Estas infraestructuras críticas que requieren conectividad global en tiempo real son carísimas. Así que estamos explorando distintas formas de financiar esto.

Actualmente existimos gracias a donaciones. Unas setenta por ciento de nuestros ingresos provienen de grandes donantes encabezados por Brian Acton, cofundador de WhatsApp, quien ha dado una contribución generosa. También tenemos a Jack Dorsey y otros que han aportado una financiación importante. Un treinta por ciento de nuestra financiación proviene de pequeños donantes, es decir, personas que donan cinco o diez dólares al mes, lo cual es un número significativo de personas y estamos muy agradecidos.

Figura 5: Una entrevista con Meredith Whittaker, Presidente de Signal
(Entrevista completa en inglés en Youtube)

Buscamos ampliar nuestra base de pequeños donantes, vamos a lanzar muy pronto una función freemium, ofreciendo copias de seguridad seguras, para recuperar Signal si tu teléfono sufre algún desastre. Por una pequeña cuota, si quieres guardar todos tus archivos multimedia para siempre, o cien gigas de tus archivos para siempre, podrás pagar 1,99 dólares al mes para hacerlo.

Así que estamos experimentando con el modelo freemium. Hemos estudiado la opción de una dotación, otras fórmulas, y exploramos lo posible. Pero sin socavar la misión central, porque lo que no podemos tener es un accionista o miembro de la junta en una estructura con ánimo de lucro presionándonos para debilitar la privacidad porque entienden que la forma de ganar dinero en la actual economía tecnológica es recopilar y monetizar datos, es debilitar la privacidad. Y ese es el equilibrio que logramos.

Sí, bueno, cuando leí cincuenta millones de dólares al año, y llevo muchos años gestionando presupuestos para empresas tecnológicas, creando tecnología, pensaba “wow, cincuenta millones solo para todo, crear, operar, innovar... Es magia”. Y mencionabas a Jack Dorsey. Él sabe muy bien lo caro que es crear tecnología a escala. Es asombroso lo que hacéis.

Y no es fácil porque tenemos un futuro y hay que seguir trabajando en privacidad. Hablamos de computación cuántica, cada día surgen nuevas amenazas para atacar la privacidad como el RSA que cada día alguien intenta romper, y tenemos agentes de IA que pueden atacar directamente la seguridad del dispositivo y afrontáis otro reto que es el endpoint. También tenemos cambios regulatorios en cada país y según el mensaje político del momento, está cambiando.

6.- ¿Cómo sería el éxito para Signal en la próxima década? ¿Qué papel esperas que juegue en la configuración de un futuro digital diferente?

El éxito para Signal en la próxima década sería sobrevivir y prosperar. Nuestro objetivo es que cualquier persona, en cualquier parte del mundo, pueda tomar su dispositivo y usar Signal fácilmente para contactar a cualquiera. Vemos la privacidad como un derecho humano fundamental; debe integrarse como sentido común en nuestras aplicaciones y servicios.

Por supuesto, aún no hemos llegado a eso, pero el éxito y el crecimiento que estamos viendo nos da esperanza a medida que las personas se sensibilizan personal y socialmente sobre lo importante que es comunicar en privado. Pero tendremos que resistir leyes mal planteadas y a menudo maliciosas que buscan, como siempre desde los años 90, socavar la posibilidad de privacidad para la gente común, confiando en el pensamiento mágico de que sólo gobiernos y fuerzas del orden pueden tener privacidad.

Por supuesto, sabemos que si hay una puerta trasera, es para todos, y se socava para todos. Así que seguimos luchando contra eso y haciendo divulgación.

También estamos, como mencionas, muy preocupados por la integración de supuestos agentes de IA, estos sistemas que suelen ser grandes modelos de lenguaje integrados al nivel del sistema operativo en varios sistemas.

Intentan hacer cosas por ti sin tu permiso, actuar automáticamente con acceso a muchos datos de formas inseguras que amenazan nuestra capacidad de proteger la privacidad a nivel aplicación. Hemos dado la voz de alarma por ello.

Vamos a colaborar con gente de la industria para proponer salvaguardas de sentido común y deshabilitaciones a nivel desarrollador. Pensamos que debe ser muy fácil y claro para apps como Signal “apagar el acceso” a tus datos por parte del agente de IA.

Esto está fuera de límites. No puede estar en el contexto del agente, no puede tocar los mensajes de Signal. Es demasiado importante. Todas las apps deberían poder decidir eso. Estamos moviendo propuestas y remedios para que Signal y apps similares mantengan la capacidad de proteger a sus usuarios.

7.- Ahora mismo todos los sistemas operativos incluyen tecnología de IA en el software base y si no aceptas los términos y condiciones muchas funciones del teléfono o del ordenador quedan bloqueadas, así que para los usuarios es difícil evitar esa fase y no dejar que el software de IA acceda a sus datos. Hay que hacer entender qué están aceptando. Y hablas de actores maliciosos. En el pasado, Signal ha sido infraestructura clave en conflictos. No quiero mencionar ninguno porque todos han sido diferentes. Pero ¿cómo equilibras el papel de Signal como herramienta para todas las partes en un conflicto? ¿Qué significa operar en ese espacio de disputa global?

Para poder servir a todos y garantizar privacidad, Signal debe estar ampliamente disponible. Así es la verdad de la encriptación. O funciona para todos, o está rota para todos. Signal no sabe quién usa Signal. Nos esforzamos por no tener datos. Oímos que gobiernos, defensores de derechos humanos, periodistas, militares, directivos… en fin, cualquiera con información sensible usa Signal en alguna capacidad, pero mantenemos nuestro camino.

Nos limitamos a crear una plataforma robusta, gratuita y privada de comunicación para todos, porque creemos que es un derecho fundamental y todos deberían tener acceso. Eso incluye a las personas que quieres y a las que no. Signal está disponible para todos.

Si no, entonces no cumplimos nuestra misión y tal vez socavamos las garantías de privacidad que sustentan esa misión.

Sí, pero debe ser difícil porque seguro que muchas veces recibes presiones de distintos actores y en muchos países para cumplir la ley, etcétera. No es fácil.

8.- Hablabas de la IA hambrienta de datos. Uno de los lugares más afectados es la web, donde los grandes LLMs han estado y siguen alimentándose de datos y destruyen el tráfico y el negocio que los publicadores tenían antes. ¿Cómo ves el futuro de las webs ahora que los grandes modelos de IA se han convertido en máquinas de respuesta para usuarios con todo el contenido creado en tiempo real accesible sin compartir tráfico con los creadores de contenido?

Creo que sin un cambio significativo de rumbo, será la muerte de la web abierta y es una perspectiva muy sombría para el futuro de los contenidos y la creatividad humana, la escritura, el arte, la música en general. Es muy preocupante. No es un área que haya estudiado a fondo. No la conozco como otras áreas, pero aun así me preocupa bastante. Y desearía que tuviésemos mejores herramientas que el copyright para remediar esto.

9.- Última pregunta, no quiero robarte más tiempo. Si sólo pudieras decirle una cosa a quienes usan otras plataformas de mensajería, ¿qué les dirías sobre migrar a Signal? Así que, para convencer a alguien de pasarse a Signal, ¿cuál sería tu mensaje?

Primero quiero decir: usas un mensajero porque quieres hablar con tus amigos. La comunicación trata de relaciones humanas. No es cuestión de pureza o de elegir la app correcta. Así que te entiendo. Quieres estar en el grupo, ir a la fiesta. Yo también. Eso es humano. De eso se trata la vida.

Sin embargo, pasa tus grupos cercanos a Signal, porque no quieres verte en esas situaciones, como dicen. No quieres que tu texto termine filtrado en un volcado de documentos. No quieres que una filtración publique tus chats en línea. No quieres que un cambio de régimen convierta en ilegal lo que hoy es normal y empiecen a revisar bases de datos para perseguir a la gente.

Creo que Signal funciona muy, muy bien. Es una app encantadora, elegante, sin funciones inútiles que algún ejecutivo obligue a integrar para cumplir con objetivos de la empresa. Sinceramente es la app de mensajería más limpia y eficiente que conozco.

Empieza pasando algunos de tus grupos a Signal. Poco a poco la gente migrará porque sentirán que lo que dicen, el desahogo que mandan a su mejor amigo, la nota de voz que comparten en su grupo, nunca aparecerá en una filtración.

Nunca se verá en una brecha de datos y nadie lo malinterpretará tras acceder a tus datos más íntimos.

Me encanta escucharte. Ha sido un honor tener esta charla contigo. Me siento feliz de haber conversado contigo. Muchas gracias, Meredith. Muchas gracias.

Y gracias por mantener la buena lucha tantos años.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


viernes, septiembre 12, 2025

An Interview with Meredith Whittaker (transcript)

Last week I interviewed with Meredith Whittaker about Privacy, AI Ethics and, of course, Signal. You have the video in Youtube, but if you are of those that still love reading interviews, here you have the transcript of it. For the joy of reading Meredith words.


Interview with Meredith Whittaker

You know that I've been following Signal in the beginning, I had the opportunity of being in many, many conferences with Moxie. We've been sharing wine around the world in Buenos Aires, in Norway, etc. So I know very well the project and the values that are behind the project so i created that ten questions. Feel free to answer answer them your own way so if you don't like anything then change it, okay?


1.- So I'm going to start with two questions, about your backgrounds and talking about AI ethics, that to me are interesting, especially because you studied rhetorical literacy and later become one of the world's leading voices in artificial intelligence ethics, which is fascinating. How was that process for Meredith Whitettaker working in tech companies and to be so worried about civil rights?

Well, I think I was initially interested and maybe a bit concerned around AI based not on my literature, my rhetoric backgrounds, but because I had done a lot of work building large scale measurement systems. And so I was effectively at the heart of the processes for creating data and then making claims about that data as a reliable representation of dynamic reality. And I knew how difficult that was.

I knew that data was always imperfect. It was always partial. It was never the whole story. And so in the early twenty tens, when I saw first machine learning and then we all decided to use the term AI become the next big things following the Alex Net paper, following the recognition that GPUs could effectively supercharge the compute available for neural network training.

Figura 3: Interview with Meredith Whittaker

I became very concerned initially that the data sources that were being used and the claims that were being made about these models created with this data were not accurate, were not sufficient to reflect the things that were being claimed, were certainly not sufficient to create an intelligent machine, and that the types of stories we tell about intelligence, about computational sophistication, were serving to entice people to trust and lend credibility to ultimately what are large companies, large corporate actors who may or may not have as their core objective broad social benefit and who create these technologies and these tools behind shrouds of corporate secrecy.

They're, of course, not open source. They're not open to scrutiny. And we were walking into a situation where we were ultimately being asked to trust whatever the output of a black box was. as if it were intelligent, as if it were more objective and reliable than we were without a way to scrutinize that. And I still think those dynamics are at play, and I still think that is a very risky position to be in as a world and as a society, given that our interests don't always overlap with the boardrooms of these handful of companies.

2.- So do you believe that meaningful change can come from within big tech companies or is external and alternative models the only way to go path forward?

You mean like meaningful positive change?

Right. Yeah.

You know, I have seen a lot of people within those companies do things that were positive. There are many people who hold the line on certain values, on certain practices. But I don't think, I think fundamentally, if the logic of an organization is grow at all costs, you know, generate revenue at all costs, and positive social change will cost money or will hamper growth, you're not going to see positive social change come from those companies.

And I think ultimately when we're talking about even understanding what those changes might be that would have a broad positive social impact, you categorically need broad participation. You need to understand what people want and what people need and what the conditions of life are.

And that requires one or another form of democratic participation of understanding what's happening on the ground and then what measures are needed to remediate it, whether those measures are technological or not.

3.- You are talking about growth, but Signal has grown to around seventy, seven-zero million users while maintaining a completely different business model from the other tech platforms. What makes Signal fundamentally different from other messaging apps beyond just the technical encryption system that everybody knows?

Well, as you know, it was founded over a decade ago with a very clear vision by Moxie, who I know you know, and it stays true to that vision. It is uncompromising in its pursuit of providing a means to exercise the human right for private communication, even in a world where that right has been foreclosed and whittled away in almost all other realms.

And so we do one thing and we do it extremely well. And we are consistent with that one thing. We came along at a time when the market wasn't saturated. This is before the iPhone was largely distributed, before smartphones were ubiquitous. This is before WhatsApp. This is a very different landscape in the internet or the application ecosystem through consistent and, I would say, visionary work that has its source with Moxie and with Trevor and with those founders, Signal has developed a reputation, developed a network effect.


It has been open source since the beginning. So you don't have to take my word for it. You don't have to take Moxie's word for it. You don't have to take anyone's word for it. You can look at our repos. You can see that, yes, the things that they say are the things that it does. And if we change that, you can call us out on it. And so there is a commitment to mission, a commitment to vision, and I think a purity to what we do that is... deeply appreciated across the ecosystem, but that over time has built the kind of trust that you can't just manufacture overnight.

It's a trust that is gained by consistent action through the type of commitment that Signal has shown to the mission of private communications. And that is in everything we do, that is the one thing we do that is our lane. And I think that is what makes us special.

We're not trying to please shareholders. We're not trying to add a little AI widget. We're not trying to boil the ocean and become the everything app. We do one thing, we do it very well, and we do it because we believe it is fundamentally important to the future of a livable world that this right remain, this right to communicate privately.

Well, and to do that, that non-profit structure that Signal is maintaining is not that nice to have, but actually essential, as you've been saying many, many times. 

Exactly.

4.- Now, you said also that most people are not users of artificial intelligence, but rather subjected to its use. How does Signal's mission connect to this broader concern about technological power imbalances? 

Yeah, well I think you know signal is not an ai company again signal does one thing very very well and in some sense it's attention with some of the the dominant paradigm of ai right now which is this big data bigger is better approach that requires huge amounts of data you know we could think of that as the product of surveillance in order to train these models and then requires a huge amounts of data to inform the models for inference, whether it's your prompts or your browser history to create a summary or your emails to create a summary or what have it.

These models need your data. And of course, what is Signal's whole deal? We want to collect as close to no data as possible. We don't want your data. We don't want to be able to give your data up. If I turned evil overnight, I still don't want to be able to give your data up.

We don't want to have access to it. And so there is a fundamental tension there between the clear and commitment to privacy that Signal embodies and the belief that I have that a tech ecosystem that is not based on the collection and sale of your data, on the processing of your data and the use to tell you who you are and where you fit in life, that a tech ecosystem that doesn't build on those premises is possible. And the current state of AI, which of course demands more and more and more data and produces more and more and more data.

5.- This business of privacy is not easy. Just, Signal, goes about fifty million a year just to maintain this operation and it makes a structural challenge of building sustainable technology outside of this surveillance economy. How do you envision the long-term sustainability for the company? And what would need to change in the broader tech ecosystem to make privacy-first technology like Signal not just possible, but financially viable at scale?

Yeah. I mean, well, look, being a nonprofit it's not fun. It's not particularly virtuous. It's a bit difficult when you're running a large-scale, real-time communications infrastructure that is trusted by hundreds of millions of people around the world. I think for us, being a nonprofit is necessary because, as we discussed, profit and revenue come from... collecting and monetizing data, whether it be to sell ads or to train your AI model. And that's the engine of the tech economy that we exist in. And being a nonprofit doesn't mean it's any cheaper for Signal to develop and maintain this infrastructure.

It's very, very expensive. You know, fifty million dollars a year is a a very low budget for something like Signal. In most for-profit companies, we would have a much bigger team, we would be spending a lot more, and we keep it very narrow and very focused. But nonetheless, this is not a cheap volunteer project. These critical infrastructures that require real-time connectivity globally are very, very expensive. And so we are exploring many ways to finance this.

Currently, we exist on donations. We have about seventy percent of our revenue comes in from large donors helmed by Brian Acton, who has provided a generous contribution. uh he's the the co-founder of Whatsapp uh we also have Jack Dorsey and others who provided significant funding uh and then we have about thirty percent of our funding comes from smaller donors so you know people in the app who donate five or ten dollars a month and you know that's a significant number of people and we're very very grateful for that we're looking at growing our small donor pool we're looking at we're launching a freemium feature very soon so we'll be adding use uh secure backups um which will allow you to recover your signal if your phone say gets thrown in a lake or or some catastrophe like that happens and for a small fee if you want to save all of your media files forever or a hundred hundred gigs of your media files forever you will be able to pay one a dollar and ninety nine cents a month to do that.

So we're experimenting with a freemium model. We've looked at things like an endowment. We've looked at other vehicles and we're ultimately we're exploring what is possible. But again, without undermining that core mission, because what we can't have is a shareholder or a board member in a for profit structure pushing us to undermine privacy because they understand that the way to make money in the current tech economy is to collect and monetize data, is to undermine that privacy. And so that's really the balance that we are striking.

Yeah, well, when I was reading, fifty million dollars a year, and I've been many, many years managing budgets for big tech companies, creating technology, I was saying, oh, this is amazing, fifty million. dollars just for everything, creating the technology, operating the technology, innovate, etc. It's doing magic. And you were mentioning Jack Dorsey. He knows very well how expensive is creating technology at scale. So it's amazing what you do. 

And it's not easy because we have a future and we need to continue working in privacy. We are talking about quantum computing. We have every day new threats in in attacking privacy like the RSA that every day people are trying to to crack it, and we have AI agents that can undermine directly the device security and you are facing another challenge which is the end point.  We have the regulatory changes in every country and depending how is the political message right now, it's changing.

6.- What does success look like for Signal in the next decade? And what role do you hope it plays in shaping a different kind of digital future?

Yeah, well, I think success for Signal in the next decade looks like surviving and thriving our goal is that everyone in the world everywhere can pick up their device and easily use signal to contact anyone else we see privacy as a fundamental human right it is a fundamental human right and that this should be integrated as common sense into our applications and services.

We're obviously not there yet but your Signal success and the growth that we're seeing as people become more personally sensitized to the stakes of privacy to how important it is to be able to communicate privately is giving me some hope there but of course we will have to push back on misguided and often malicious legislation that aims as it always has since the liberalization of encryption in the late nineties to undermine the ability for your common people to have privacy you know based on the magical thinking that it's somehow possible to allow only governments and law enforcement access to privacy.

And of course, we know that if there's a backdoor anywhere, it is a backdoor for everyone and you have undermined it for everyone. So we continue to push against that legislation and try to do advocacy and education around the importance to strong privacy for everyone.

We are also, as you mentioned, very concerned with the integration of so-called AI agents, these software systems that involve usually large language models that are being integrated at the operating system level across various operating systems.

They're intended to do things on your behalf without your permission. So act autonomously based on access to huge amounts of data in ways that are not secure and that pose a real threat to our ability to continue providing robust privacy at the application layer. So we have raised the alarm there.

We're going to be working with people across the industry to propose common sense safeguards and developer level opt outs. We think it needs to be very it needs to be easy and clear for apps like Signal to flip a switch and say, no, you cannot access Signal data for your AI agent.

This is off limits. This cannot become part of your context window. You are not allowed to touch Signal messages. This is too important and that all applications should be able to make that call. And we're pushing on those and some other, again, remediations that could maintain the ability for Signal and apps like Signal to make their own choices and protect their users at the application level.

7.- Right now all operating systems are having the AI technology on the software base and if you don't accept the terms of condition many of the features that the smartphone or the of the desktop machine is having are completely blocked, so for a user it's difficult to to to stop that phase and not letting the AI software getting access to the data. So we need to make people understand what they are saying Yes to. So it's not easy. And you were talking about bad actors. In the past, Signal has become crucial infrastructure during conflicts. I don't want to mention any of them because each of them has been different. But how do you balance Signal's role as a tool for them, for each of the parts in that conflict? What does it mean for Signal to operate in this contested space of a world in conflict?

In order to work for anyone, in order to provide privacy, Signal needs to be available widely. And I think this is really the truth of encryption. Either it works for everyone or it's broken for everyone. So, you know, Signal doesn't know who uses Signal. We go out of our way to have as little data as possible. We do hear from people that governments, human rights workers, journalists, militaries, boardrooms, basically anyone who has high stakes information uses Signal in some capacity, but we remain in our lane.

Our lane is providing robust freely available private communications platform for everyone across the board. We believe this is a fundamental human right, and everyone should have access to it. And that means the people you love, and that means the people you don't love. Ultimately, Signal is available for everyone.

And if it's not, then we're not, you know, If it's not, then we are undermining our mission and potentially undermining the privacy guarantees on which that mission is based. Yeah, but should be difficult because for sure many, many times you receive pressure from different actors and in many countries asking for accomplishing the law, etcetera. So it's not easy.

8.- You were talking about artificial intelligence eager for getting data. And one of the most affected places for doing that is the web in which all the big LLMs have been or are constantly eating data from webs and the traffic is completely destroyed for the business that the publisher of the content were having until they appear. How do you see the future of the website with the big artificial intelligence models becoming the answering machine for users with all the content that is created in real time accessible without sharing the traffic with the content providers?

I think without a significant change in trajectory, it spells the death of the open web and it strikes a very grim note for the future of human produced content and creativity and writing, art, music in general. It's very concerning to me. It's not an area I've studied deeply. It's not an area that I am as familiar with as I am in other areas. But nonetheless, it is something that I am deeply concerned with. And it's something I wish we had better tools than copyright to remediate.

9.- And last question, I don't want to take more of your time. If you have only one thing to say to people that are simply using other messaging platforms, what do you say to them related to migrate to Signal?

asas So move to Signal, what should be your message for them? Well, first I want to say, The reason you use a messenger is because you want to talk to your friends. Communication is about human relationships. It's not about purity. It's not about choosing the right platform. So I understand you. I see you. It's fine. You're there because you want to be included in the group chat. You want to go to the party. So do I. That's human. That's the point of life. 

However, move your close groups to Signal because you just don't want to go out that way, as they say. You don't want to have that text leaked in a document dump. You don't want a data breach to publish your group chats online. You don't want a regime change to suddenly make what you're doing today, which is totally normal and legal, illegal in three years and begin to look through databases to prosecute people.

I think that Signal Happily works very, very well. It is lovely. It is classy. It is not full of crappy little features that some product manager forced us to integrate because they're trying to please a company OKR. It is honestly the sleekest and most well-functioning messaging app that I am familiar with.

And I think that start moving a couple of your groups to Signal. And then slowly more and more people will migrate because it just feels nicer to know that whatever you're saying, whatever rant you are typing out to your best friend, whatever random voice note you are sharing with your girls chat is never going to show up in discovery. 

It is never going to show up in a data breach and it will never be misconstrued by some enemy wanting to paint you in a bad light after they got access to your most intimate data. 

Well, I really love to listen to you. And I would like to say thank you. It's been an honor to listen to you this time. And I feel completely happy after having this talk. Thank you very much, Meredith. Thank you so much. 

And thank you for keeping up the good fight for so many years. 
It's been such a delight to talk to you. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, septiembre 10, 2025

Una entrevista con Meredith Whittaker, Presidente de Signal

Hace un par de días tuve la suerte de poder hacer una pequeña entrevista de 10 preguntas Meredith Whittaker, que es la Presidente de Signal Foundation, la organización sin ánimo de lucro que cuida de la financiación y el control de la plataforma y el servicio Signal, para garantizar que la privacidad del servicio no se ve comprometida por la sostenibilidad de la organización que la crea. 
Así que, como os podéis imaginar, la entrevista que le hice a Meredith Whittaker fue alrededor de estos temas. Yo he tenido la suerte de pasar tiempo con Moxie Marlinskpike, compartir cenas, vinos, charlas y algunas risas - que es el fundador de Signal -, así que cuando me surgió la oportunidad de tener un rato a Meredith, que es una de las líderes mundiales en AI Ethics, no podía pasar esta oportunidad. Aquí tenéis la entrevista en Youtube.

Figura 2: Una entrevista con Meredith Whittaker, Presidente de Signal

Además, si queréis contactar con ella, y preguntarle alguna cosa, Meredith Whittaker tiene abierto un buzón público en MyPublicInbox, donde estará al alcance de vuestros mensajes.
La entrevista es inglés, pero en un par de días os dejo la transcripción limpia en Inglés y en Español por si queréis leerla mejor.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


domingo, septiembre 07, 2025

Cómo acelerar los algoritmos de Inteligencia Artificial con Computadores Analógicos Ópticos (AOC)

Hace tiempo que tenemos en el mundo de la tecnología la llamada llegada Muerte de la Ley de Moore, porque los límites físicos están haciendo imposible crecer exponencialmente en una integración mayor con las tecnologías actuales. Eso hace que se estén trabajando desde hace mucho, mucho tiempo, en otras soluciones basadas en aproximaciones físicas totalmente diferentes, como son los ordenadores cuánticos o la computación fotónica. Mientras llegan nuevos ordenadores completos totalmente funcional, la industria busca solucionar el problema con Optimizadores Hardware que aceleren determinadas partes de los algoritmos que son costosas en tiempo, para lograr eficiencias en su ejecución.
El uso de las GPUs es un claro ejemplo de un optimizador hecho a partir de un hardware dedicado, o los chips fotónicos de Lightmatter que utilizan tecnología fotónica para ciertas operaciones, lo que permite resolver algunos problemas mejor que los microprocesadores tradicionales. En el mundo de la tecnología Quantica hemos tenido ejemplos con intentos de optimización de la factorización RSA utilizado optimizadores Quantum Annealing, aunque no parece que el resultado fuera exitoso.
Los equipos de Microsoft Research Analog Optical Computer llevan años trabando con tecnología fotónica, pero no para comunicación cuántica o para sistemas de distribución de claves QKD usando propiedades cuánticas, sino para hacer optimización de cálculos en los algoritmos mediante el uso de computación óptica, jugando con la luz. El primer paper lo tenéis arriba, publicado en el año 2023, titulado: "Analog Iterative Machine (AIM): using light to solve quadratic optimization problems with mixed variables" y donde habla de su Analog Interactive Machine (AIM) para construir Analog Optimizer Computers (AOC).


Figura 3: Microsoft Research Analog Optical Computer

Todo este proceso de investigación, esa muy bien explicado en el vídeo que tenéis arriba, y podéis leeros los dos papers que han publicado, y visitar la web de Microsoft Research Analog Optical Computer, que es lo que he estado haciendo yo este fin de semana. En ellos explican el fundamento básico, que se apoya en haces de luz que se modulan en una matriz de puntos de intensidad para generar un conjunto matricial de puntos de colores, lo que significa que por cada punto de luz de la matriz resultante tenemos el impacto del haz de luz modulado (operado matemáticamente) por la matriz de moduladores, que puede ser capturado por un array de cámaras.
Ésta es una operación óptica básica que permite multiplicar un vector por una matriz, que es una operación muy común que se utiliza en muchos algoritmos complejos. ¿Cuál es la ventaja? Pues que esta operación se hace a la velocidad de la luz, así que lo que los investigadores pensaron es ¿qué algoritmos se benefician de este tipo de optimización? Y ahí aparecieron los algoritmos QUMO.

"Los problemas "Quadratic Unconstrained Mixed Optimizations with all-to-all Connectivity" consisten en encontrar la configuración óptima de variables (enteras y binarias) que minimizan (o maximizan) una función cuadrática, donde no hay restricciones directas y todas las variables pueden interactuar entre sí" (fuente)

Este problema, que también se está abordando desde el prisma de uso de Optimizadores Quantum Anheling, es un problema donde existen muchas variables donde todas impactan en la optimización del problema. El problema típico es el de elegir la mejor inversión en la bolsa teniendo en cuenta que las variables cambian a lo largo del tiempo, y que todas las variables están relacionadas porque si se desinvierte en una se invierte en otra, y puede tener un impacto global en la solución.
En estos algoritmos el objetivo es maximizar el retorno y minimizar el riesgo, así que son dos variables que miden el riesgo y el beneficio, con una matriz de opciones de inversión, pero que van variando a lo largo del tiempo. 
Este tipo de problemas, utilizando un algoritmo de solución llamado Gradient-Descent, porque se trata de elegir puntos de inversión inicial para llegar a una zona final óptima minimizando la energía, que en el ejemplo son los valores de riesgo y beneficio. Al final, exige una iteración a lo largo del tiempo de una multiplicación de vector por matrices, algo que se puede hacer on un Optimizador Analógico Óptico.
Este proceso se hace a la velocidad de luz, y permite conectarse con un equipo normal, lo que haría que estas operaciones fueran muy rápido, acelerando la ejecución del algoritmo. Este trabajo lo han presentado en el artículo que ha sido publicado en la revista Nature este pasado 3 de Septiembre, titulado: "Analog optical computer for AI inference and combinatorial optimization".

En el artículo, no solo han hecho pruebas en simulador, sino que han probado diferentes algoritmos utilizados hoy en día basados en problemas QUMO, con uno de los últimos prototipos que han construido, y que tiene un aspecto aún lejos de estar en producción.
Los módulos marcados con los números 1, 2, 3 y 4 de este computador son los que en la imagen de la Figura 7 están descritos conceptualmente, y que en la imagen siguientes veis desmontados del equipo para verlos mejor.
Como véis, para hacer una multiplicación de un vector por una matriz necesitamos dos operaciones básicas, que son la multiplicación - realizada con el modulador de intensidad que da una pantalla de resultados en forma de colores, y la suma se realiza con la cámara, para llevar el resultado final a la electrónica que conecta con el computador digital habitual.

Figura 11: Libro de Machine Learning aplicado a Ciberseguridad de
Carmen TorranoFran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

En el paper publicado en Nature, los investigadores han probado su algoritmo en cuatro algoritmos que encajan con necesidades QUMO en ciertas partes y hacen un uso intensivo de la multiplicación de vectores por matrices, como la reconstrucción de imagen médica, el problema de inversión financiera del que hemos hablando anteriormente, algoritmos de clasificación complejos utilizados en Machine Learning o los algoritmos de Regresión No Lineales que se usan en los modernos modelos de Inteligencia Artificial.
Los resultados, en todos los casos, mejoran los benchmarks anteriores, dando mejores soluciones, en menor tiempo, y mostrando un prometedor futuro para este tipo de Optimizadores Analógicos Ópticos, que ponen a la tecnología fotónica en un momento dulce.
En los diferentes problemas, el uso de AOC ha conseguido resultados de mejor calidad, nuevas soluciones, mejoras de tiempo, y mejores resultados en los Benchmarks. Es el objetivo de los optimizadores, conseguir una mejora de una parte de un algoritmo para conseguir una mejora en el algoritmo completo. 
Los primeros equipos que enseñó el equipo de Microsoft Research Analog Optical Computer han mejorado mucho su tamaño, pero aún están lejos de estar en producción, pero es un ejemplo claro de cómo la ciencia mejora nuestra tecnología, y esto seguro que no demasiado lejos en el tiempo veremos estas tecnologías en los datacentes en los que corremos nuestros modelos de IA - que, también nos sirven para optimizar nuestros algoritmos, como ya hemos visto como Alpha Evolve.-.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


martes, septiembre 02, 2025

EducaGPT: Plataforma de educación para niños y niñas usando Inteligencia Artificial

Hola, soy Daniel Atik, emprendedor español que vive en Chile desde hace casi 20 años y, ante todo, papá de Laia. Muchas de las ideas que han marcado mi camino en mis últimos diez años nacieron de ella: de escuchar sus preguntas infinitas y de buscar la manera de acompañar su curiosidad sin apagarla. Hoy, en un mundo donde el conocimiento está al alcance de cualquiera con un clic, la verdadera ventaja no está en acumular información, sino en saber discernir cuál es la correcta y relevante para cada uno. Y, sobre todo, en la capacidad de aprender con rapidez, adaptarse a los cambios y desarrollar un pensamiento crítico capaz de cuestionar, interpretar y transformar esa información en valor.


Por eso estoy convencido de que la educación necesita un cambio desde la raíz. No basta con ajustar programas o añadir más horas de clases: es necesario replantear cómo aprenden los estudiantes y cómo los acompañamos en ese camino. Ese cambio profundo no depende de la tecnología, porque lo esencial seguirá siendo humano: la relación viva entre el niño, sus educadores y su entorno. Sin embargo, la tecnología puede ser un catalizador poderoso, capaz de acelerar y potenciar ese cambio, abrir nuevas posibilidades y devolver a los educadores tiempo y herramientas para enfocarse en lo que realmente importa: acompañar a cada niño en su camino único de aprendizaje.

De ahí nació EducaGPT. Siempre he sentido que la educación arrastra un problema de base: suele tratar a todos los niños como si fueran iguales, cuando en realidad cada uno es único, con intereses propios y ritmos de aprendizaje diferentes. EducaGPT es mi manera de enfrentar ese desafío: una plataforma que utiliza inteligencia artificial no para reemplazar, sino para acompañar. Un espacio donde cada niño puede aprender a su manera, en un entorno que se adapta a su curiosidad, a sus necesidades y a su ritmo de desarrollo.

Figura 2: Vídeo explicativo de la demo de EducaGPT
Aquí se muestra de manera concreta lo que intento lograr.

Ahora bien, para que esto ocurra, los profesores y los centros educativos tienen un desafío enorme: primero comprender cómo funciona esta tecnología, conocer sus alcances y limitaciones, y luego repensar juntos cómo re-crear la educación, con qué metodologías y herramientas. Solo así podremos integrar la inteligencia artificial como un verdadero aliado, al servicio de una transformación educativa que coloque a cada niño y niña en el centro.

Construir EducaGPT ha sido un viaje lleno de pruebas, errores y aprendizajes compartidos con familias y educadores. Lo que me impulsa es simple: que aprender sea tan emocionante como jugar, y que quienes guían a los niños tengan herramientas que les devuelvan tiempo, claridad y confianza para acompañarlos mejor.

¿Qué es EducaGPT y cómo funciona?

EducaGPT es una plataforma educativa gratuita, basada en inteligencia artificial, que ofrece experiencias de aprendizaje híper personalizadas y alineadas con el currículum escolar de cada niño y niña según la región o el país donde resida.

La idea es sencilla: cada estudiante tiene un perfil único. El sistema adapta los contenidos a su edad, intereses, nivel y objetivos definidos por sus educadores o tutores. Esto significa que no se limita a dar “respuestas automáticas”, sino que construye un recorrido de aprendizaje coherente, donde cada actividad conecta con lo que el niño necesita aprender en ese momento.


Los educadores y tutores pueden administrar objetivos de aprendizaje de manera personalizada, crear artefactos digitales interactivos (Los Playgrounds que pueden ser ejercicios, juegos, actividades guiadas) y hacer un seguimiento del avance con reportes pedagógicos claros. Estos reportes muestran en qué temas el niño progresa con facilidad y dónde necesita más apoyo, lo que permite intervenir a tiempo y de forma precisa.

EducaGPT ha estado siendo usado durante más de dos años en Open Montessori, el proyecto educativo que dirige mi mujer Marcela, y los resultados han sido muy positivos: niños más motivados, aprendizajes más fluidos y, sobre todo, familias y educadores que sienten que tienen una herramienta que suma, en lugar de complicar. EducaGPT les ayuda a focalizar a cada niño y niña en lo que necesita en cada etapa, ofreciendo la posibilidad de practicar de manera ilimitada en las áreas donde más apoyo requiere, hasta consolidar sus aprendizajes.

Seguridad y confianza en el aprendizaje

Desde el inicio tuve claro que EducaGPT debía enfocarse no solo en el aprendizaje, sino también en la seguridad. Internet está lleno de distracciones y contenidos inapropiados, y no tiene sentido abrir una puerta de aprendizaje si al mismo tiempo expones a los niños a lo que no corresponde.

Figura 4: Demo de EducaGPT Explorer

Por eso desarrollé además un navegador propio, EducaGPT Explorer, potenciado con IA, que filtra automáticamente redes sociales, violencia, publicidad invasiva y sitios que no aportan valor pedagógico. Lo que queda es un espacio de exploración segura, donde el niño puede navegar y aprender sin riesgos, y siempre con supervisión de los adultos.

Beneficios:
  • Para los niños y niñas: aprender a su ritmo, con contenidos que les interesan y actividades que los motivan.
  • Para los educadores y tutores: visibilidad real del progreso, reportes claros y herramientas para diseñar experiencias personalizadas.
  • Para las familias: la tranquilidad de un entorno seguro, sin distracciones ni exposición a contenidos dañinos.
  • Para las escuelas: una manera de innovar sin perder el foco en el currículum oficial y los objetivos pedagógicos.
Ejemplos de casos de uso

Imagina un niño de 9 años que tiene dificultades con la división, pero que al mismo tiempo muestra gran interés por la astronomía. En EducaGPT, sus ejercicios de matemáticas pueden plantearse a partir de ejemplos del universo: repartir planetas entre astronautas o calcular distancias entre estrellas. De esa forma, practica lo que necesita mientras se conecta con lo que más le apasiona.

Otro caso puede ser el de una niña que ya domina las fracciones, pero que aún presenta inseguridad al expresarse en público. Un tutor puede asignarle un Playground interactivo en el que tenga que explicar, paso a paso, cómo resolvió un problema. El sistema le ofrece retroalimentación automática y el educador recibe un reporte claro para ver si necesita más acompañamiento en comunicación oral.

Figura 5: Asignación de objetivos de aprendizaje

También hay ejemplos en contextos escolares más amplios. Un profesor de historia puede crear un artefacto digital donde los estudiantes deban responder preguntas sobre Roma o Grecia, con niveles adaptativos según el avance de cada uno. Mientras unos practican conceptos básicos, otros reciben desafíos más complejos. El mismo ejercicio, pero con dificultad ajustada a cada estudiante.

Figura 6: Creación de artefactos educativos con IA

Y para las familias, EducaGPT representa tranquilidad. Un padre puede ver en un reporte que su hija ha dedicado 30 minutos a lectura comprensiva y ha mejorado en vocabulario, mientras que todavía tiene dificultades en comprensión inferencial. Esa visibilidad permite apoyar desde casa con claridad, sin necesidad de adivinar por dónde empezar.

Figura 7: Reporte de Estudiantes

Y esto es solamente el principio, pronto llegarán nuevas herramientas y funcionalidades para ayudar a Estudiantes, Educadores y Familias a personalizar aún más sus objetivos, crear experiencias de aprendizaje más ricas e interactivas, y contar con métricas claras que les permitan acompañar mejor cada paso del camino educativo.

Una invitación a co-crear EducaGPT.

Debo agradecer a Chema Alonso, por abrirme este espacio, y a todos los que creen que la educación puede cambiar si la pensamos desde la esencia de cada niño. Hoy, miles de estudiantes, educadores y tutores ya utilizan EducaGPT en 54 países, y la comunidad sigue creciendo y expandiéndose. Y esto, para mí, es solo el comienzo.

Por eso, quiero extender una invitación a co-crear: a educadores, familias, investigadores y a todos los que sueñan con una educación distinta, para que juntos pensemos nuevas metodologías, actividades y herramientas que hagan de EducaGPT un espacio vivo, en constante evolución y al servicio de quienes más lo necesitan: los niños y niñas.

Un saludo,

Autor: Daniel Atik fundador de EducaGPT

Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares