Mostrando entradas con la etiqueta GenAI. Mostrar todas las entradas
Mostrando entradas con la etiqueta GenAI. Mostrar todas las entradas

martes, septiembre 02, 2025

EducaGPT: Plataforma de educación para niños y niñas usando Inteligencia Artificial

Hola, soy Daniel Atik, emprendedor español que vive en Chile desde hace casi 20 años y, ante todo, papá de Laia. Muchas de las ideas que han marcado mi camino en mis últimos diez años nacieron de ella: de escuchar sus preguntas infinitas y de buscar la manera de acompañar su curiosidad sin apagarla. Hoy, en un mundo donde el conocimiento está al alcance de cualquiera con un clic, la verdadera ventaja no está en acumular información, sino en saber discernir cuál es la correcta y relevante para cada uno. Y, sobre todo, en la capacidad de aprender con rapidez, adaptarse a los cambios y desarrollar un pensamiento crítico capaz de cuestionar, interpretar y transformar esa información en valor.


Por eso estoy convencido de que la educación necesita un cambio desde la raíz. No basta con ajustar programas o añadir más horas de clases: es necesario replantear cómo aprenden los estudiantes y cómo los acompañamos en ese camino. Ese cambio profundo no depende de la tecnología, porque lo esencial seguirá siendo humano: la relación viva entre el niño, sus educadores y su entorno. Sin embargo, la tecnología puede ser un catalizador poderoso, capaz de acelerar y potenciar ese cambio, abrir nuevas posibilidades y devolver a los educadores tiempo y herramientas para enfocarse en lo que realmente importa: acompañar a cada niño en su camino único de aprendizaje.

De ahí nació EducaGPT. Siempre he sentido que la educación arrastra un problema de base: suele tratar a todos los niños como si fueran iguales, cuando en realidad cada uno es único, con intereses propios y ritmos de aprendizaje diferentes. EducaGPT es mi manera de enfrentar ese desafío: una plataforma que utiliza inteligencia artificial no para reemplazar, sino para acompañar. Un espacio donde cada niño puede aprender a su manera, en un entorno que se adapta a su curiosidad, a sus necesidades y a su ritmo de desarrollo.

Figura 2: Vídeo explicativo de la demo de EducaGPT
Aquí se muestra de manera concreta lo que intento lograr.

Ahora bien, para que esto ocurra, los profesores y los centros educativos tienen un desafío enorme: primero comprender cómo funciona esta tecnología, conocer sus alcances y limitaciones, y luego repensar juntos cómo re-crear la educación, con qué metodologías y herramientas. Solo así podremos integrar la inteligencia artificial como un verdadero aliado, al servicio de una transformación educativa que coloque a cada niño y niña en el centro.

Construir EducaGPT ha sido un viaje lleno de pruebas, errores y aprendizajes compartidos con familias y educadores. Lo que me impulsa es simple: que aprender sea tan emocionante como jugar, y que quienes guían a los niños tengan herramientas que les devuelvan tiempo, claridad y confianza para acompañarlos mejor.

¿Qué es EducaGPT y cómo funciona?

EducaGPT es una plataforma educativa gratuita, basada en inteligencia artificial, que ofrece experiencias de aprendizaje híper personalizadas y alineadas con el currículum escolar de cada niño y niña según la región o el país donde resida.

La idea es sencilla: cada estudiante tiene un perfil único. El sistema adapta los contenidos a su edad, intereses, nivel y objetivos definidos por sus educadores o tutores. Esto significa que no se limita a dar “respuestas automáticas”, sino que construye un recorrido de aprendizaje coherente, donde cada actividad conecta con lo que el niño necesita aprender en ese momento.


Los educadores y tutores pueden administrar objetivos de aprendizaje de manera personalizada, crear artefactos digitales interactivos (Los Playgrounds que pueden ser ejercicios, juegos, actividades guiadas) y hacer un seguimiento del avance con reportes pedagógicos claros. Estos reportes muestran en qué temas el niño progresa con facilidad y dónde necesita más apoyo, lo que permite intervenir a tiempo y de forma precisa.

EducaGPT ha estado siendo usado durante más de dos años en Open Montessori, el proyecto educativo que dirige mi mujer Marcela, y los resultados han sido muy positivos: niños más motivados, aprendizajes más fluidos y, sobre todo, familias y educadores que sienten que tienen una herramienta que suma, en lugar de complicar. EducaGPT les ayuda a focalizar a cada niño y niña en lo que necesita en cada etapa, ofreciendo la posibilidad de practicar de manera ilimitada en las áreas donde más apoyo requiere, hasta consolidar sus aprendizajes.

Seguridad y confianza en el aprendizaje

Desde el inicio tuve claro que EducaGPT debía enfocarse no solo en el aprendizaje, sino también en la seguridad. Internet está lleno de distracciones y contenidos inapropiados, y no tiene sentido abrir una puerta de aprendizaje si al mismo tiempo expones a los niños a lo que no corresponde.

Figura 4: Demo de EducaGPT Explorer

Por eso desarrollé además un navegador propio, EducaGPT Explorer, potenciado con IA, que filtra automáticamente redes sociales, violencia, publicidad invasiva y sitios que no aportan valor pedagógico. Lo que queda es un espacio de exploración segura, donde el niño puede navegar y aprender sin riesgos, y siempre con supervisión de los adultos.

Beneficios:
  • Para los niños y niñas: aprender a su ritmo, con contenidos que les interesan y actividades que los motivan.
  • Para los educadores y tutores: visibilidad real del progreso, reportes claros y herramientas para diseñar experiencias personalizadas.
  • Para las familias: la tranquilidad de un entorno seguro, sin distracciones ni exposición a contenidos dañinos.
  • Para las escuelas: una manera de innovar sin perder el foco en el currículum oficial y los objetivos pedagógicos.
Ejemplos de casos de uso

Imagina un niño de 9 años que tiene dificultades con la división, pero que al mismo tiempo muestra gran interés por la astronomía. En EducaGPT, sus ejercicios de matemáticas pueden plantearse a partir de ejemplos del universo: repartir planetas entre astronautas o calcular distancias entre estrellas. De esa forma, practica lo que necesita mientras se conecta con lo que más le apasiona.

Otro caso puede ser el de una niña que ya domina las fracciones, pero que aún presenta inseguridad al expresarse en público. Un tutor puede asignarle un Playground interactivo en el que tenga que explicar, paso a paso, cómo resolvió un problema. El sistema le ofrece retroalimentación automática y el educador recibe un reporte claro para ver si necesita más acompañamiento en comunicación oral.

Figura 5: Asignación de objetivos de aprendizaje

También hay ejemplos en contextos escolares más amplios. Un profesor de historia puede crear un artefacto digital donde los estudiantes deban responder preguntas sobre Roma o Grecia, con niveles adaptativos según el avance de cada uno. Mientras unos practican conceptos básicos, otros reciben desafíos más complejos. El mismo ejercicio, pero con dificultad ajustada a cada estudiante.

Figura 6: Creación de artefactos educativos con IA

Y para las familias, EducaGPT representa tranquilidad. Un padre puede ver en un reporte que su hija ha dedicado 30 minutos a lectura comprensiva y ha mejorado en vocabulario, mientras que todavía tiene dificultades en comprensión inferencial. Esa visibilidad permite apoyar desde casa con claridad, sin necesidad de adivinar por dónde empezar.

Figura 7: Reporte de Estudiantes

Y esto es solamente el principio, pronto llegarán nuevas herramientas y funcionalidades para ayudar a Estudiantes, Educadores y Familias a personalizar aún más sus objetivos, crear experiencias de aprendizaje más ricas e interactivas, y contar con métricas claras que les permitan acompañar mejor cada paso del camino educativo.

Una invitación a co-crear EducaGPT.

Debo agradecer a Chema Alonso, por abrirme este espacio, y a todos los que creen que la educación puede cambiar si la pensamos desde la esencia de cada niño. Hoy, miles de estudiantes, educadores y tutores ya utilizan EducaGPT en 54 países, y la comunidad sigue creciendo y expandiéndose. Y esto, para mí, es solo el comienzo.

Por eso, quiero extender una invitación a co-crear: a educadores, familias, investigadores y a todos los que sueñan con una educación distinta, para que juntos pensemos nuevas metodologías, actividades y herramientas que hagan de EducaGPT un espacio vivo, en constante evolución y al servicio de quienes más lo necesitan: los niños y niñas.

Un saludo,

Autor: Daniel Atik fundador de EducaGPT

sábado, agosto 30, 2025

Cómo colorear las Tiras de Cálico Electrónico usando Nano Banana: ¡Viva la ConsistencIA!

Cálico Electrónico no es sólo el Mayor Superjirou de todos los tiempos, hermano. No es sólo una pieza maestra en la memoria friki de Internet, joder. ¡Es que además sigue repartiendo estopa en formato tira cómica! Sí sí, hermano: las nuevas tiras de Cálico se siguen publicando periódicamente. ¡¡¡Cálico Elecrónico VIVE!!! Y gracias a su capacidad de adaptación, no piensa dejar IA con cabeza.Vale. Me has pillado, chache. No soy Chindasvinta, joder. Soy María Gómez Prieto =^_^=. 

Figura 1:  Imagen: Nano Banana

Pero déjame primero que te cuente por qué este artículo. Y es que todo lo que te voy a contar ha sucedido la semana pasada. Me parece increíble, tengo la sensación de que han pasado meses... Y la verdad, podría haberme limitado a escribir un tutorial: "Cómo colorear tiras cómicas con Nano Banana", prompteando hasta dar con la receta perfecta y todos tan contentos. Pero no.

Figura 2:  Dos tiras de Las Tiras de Cálico 3.

Ya me conocéis, prefiero contaros cositas del backstage... Porque creo que las experiencias humanas nos aportan más que un tutorial que quedará obsoleto en semanas. Y además, esta vez lo que nos interesa es una única feature clave: la consistencia. Pero antes...

¿Conoces las tiras de Cálico Electrónico?

Las Tiras de Cálico Electrónico nacieron como spin-off de la mítica webserie en Flash, y con los años se han convertido en un clásico vivo de la viñeta digital. Empezó Niko (aka Nikotxan) dibujando el primer volumen, luego Blowearts tomó el relevo, y hasta hoy: siguen publicándose en redes y plataformas online. 
Yo las leo en el Deili Electrónico, el Periódico Oficial de Electrónico City. Y como dice Chema Alonso: “¿Mola o no mola? Mola todo”.


Puestos ya en antecedentes,  y recomendados los tres volúmenes de las Tiras de Cálico, vamos a ver el artículo en sí.
La chispa

El 13 de agosto salió una tira de Cálico con el Capitán Alatriste y Arturo Pérez-Reverte anunciando su próximo libro Misión en París. Al verla pensé: “Anda, hacía tiempo que no salía una tira a color”. Y hasta ahí llegó mi brillante reflexión.

Figura 5: PARDIEZ... hay una Misión en París

Pero claro, ya sabes cómo operamos En el lado del mal. Ese mismo fin de semana, el 17 de agosto, el dr. dr. Maligno me lanzó un prompt demasiado tentador: “hallemos un método AI-tomated para colorear tiras de Cálico con IA”. Así que aquí estamos, jugando a ser coloristas digitales con el superjirou más fondón de Internet.

Figura 6: Dr. dr. Maligno of the Horde, maquinando intrigas inconcebibles
desde Hallucination Island™. El pulpo lo lleva crudo. Imagen: Perchance

Poco imaginábamos en ese momento lo que iba a suceder a partir del día siguiente en la comunidad tecnológica...

Consistencia: el santo grial

La idea de Maligno me pilló vendidísima a la vida familiar, con zero tiempo para “inmersión total”. Mientras flotaba en la piscina viendo pasar las horas, no podía hacer nada más que anticipar mis dos grandes miedos:
  1. Que la IA altere los dibujos originales al colorearlos.
  2. Que adjudicar colores sea un infierno de prompts kilométricos.
Figura 7: La propuesta me pilló inmersa en anti-inmersión total.
Imagen: Perchance

La ansiedad me consumía. ¿Cómo iba a encontrar un modelo consistente que respetara el dibujo original, estando en modo paradisíaco sin tiempo ni medios? A veces parezco nueva... En realidad, no tenía de qué preocuparme: la Fuerza Maligna permea la realidad cual horda de neutrinos. Así que, un par de días después ¡ZAS! Apareció Nano Banana, el misterioso modelo que podía ser justo lo que necesitábamos.

¿Qué demonios es Nano Banana?

Entre el 14 y el 18 de Agosto (¡el lunes pasado!), en plena competición del LMArena, se coló un participante anónimo que arrasó a todos. Su nombre: Nano Banana. Nadie lo presentó oficialmente, no había funnel casposo, ni README, ni nada. Solo rumores. El más sabroso: que podría ser de Google, porque varios googlers empezaron a soltar emojis de plátanos justo después de su aparición. ¿Pista real o simple troleo? Nadie tenía ni idea... Y debo confesar que yo misma lo creía poco probable.


Hasta que el 26 de agosto se confirmó. Me dijo mi socio que “Nano Banana” es el nombre en pruebas de Gemini 2.5 Flash Image, y me pasó este link donde podéis ver sus especificaciones y estado de desarrollo... Qué bajón. A pocas horas de entregarle este artículo a nuestro dr. dr. Maligno, tengo la sensación de no haber llegado a tiempo. Ains. Escuece un poco.

Figura 9: Imagen de Nano Banana en el blog de Flux, el 18 de agosto,
cuando aún no se sabía que era de Google. Gemini 2.5 Flash Image 

Pero si volvemos la vista atrás al 18 de Agosto (¡el lunes pasado!), durante toda una semana hemos tenido un modelo fantasma, sin ficha técnica ni equipo oficial, que en pocas horas se convirtió en el hype de la comunidad. Y yo, como pícara digital, me siento afortunada de haber aprovechado la oportunidad de ponerlo a prueba para mi reto maligno, colorear a Cálico Electrónico, antes de que la banana se despojara de su piel de anonimato.

Primera prueba: Bild Lilli al rescate con Nano Banana

El 21 de Agosto, atrincherada en la habitación del hotel con el portátil y un par de mojitos de apoyo, lancé mi primera prueba. No con Cálico todavía, sino con mi querida Bild Lilli, por si acaso había letra pequeña en los términos de uso.

Figura 10: Imagen original de Bild Lilli y mi prompt para coloreado en acuarela.
¿Pintará cada cosa del color que le estoy indicando?

Le pedí un coloreado estilo “acuarela vintage”, buscando un acabado artesanal y fluido. Resultado: en menos de 20 segundos, pantalla llena y mi reacción fue inmediata: ¡WOW!

Figura 11: viñetas de Bild Lilli (1952-1961) coloreadas por Nano Banana (2025).
  • El dibujo original intacto: firmas y textos incluidos.
  • Colores aplicados con acierto en la mayoría de casos (solo un despiste entre falda/coche, pero nada grave).
  • El estilo acuarela quedó precioso, con gradientes suaves y aspecto de calidad.
Lo más importante: Nano Banana respeta el original. Y con eso, el primer gran problema —la consistencia— quedó resuelto. O eso es lo que me pensaba... Inocente de mí.

Segunda prueba: los colores de Cálico Electrónico

Con Bild Lilli fue todo fiesta: Nano Banana respetaba el dibujo, y como nunca hubo versión en color, cualquier coloreado colaba. Total, nadie podía quejarse de que un vestido fuera azul o rojo. Pero con las Tiras de Cálico Electrónico la historia es otra. Aquí los colores son sagrados: los trajes, los escenarios, hasta las piñas. Si el amarillo no es amarillo, canta. Y mucho.


Para esta prueba escogí una tira simple: la de las piñas. El primer intento con prompt de texto fue un show: imagen cortada, detalles rojos desaparecidos, esquema cromático triste (azul + naranja y gracias) y, lo mejor de todo, ¡piñas azules! Vamos, un cuadro.

Figura 13: Un prompt de texto impreciso genera una imagen pobre.
(Salió así, cortada por los lados)

Ahí me entró el bajón: la única salida parecía ser escribir un prompt kilométrico con todos los colores, y eso es justo lo que juré no hacer. Pero entonces… milagro maligno. Abro Nano Banana y ahora permite subir nueve imágenes de referencia. Aleluya. Me lo prometía muy “feliciana”: subir referencias, afinar el prompt, ¡y listo!

Figura 14: Hoy en día, la interfaz de Nano Banana permite adjuntar hasta 9 imágenes.
¡Y yo pensando que esto me salvaba la vida!

Peeeero no. Cuando voy a generar, me aparece un mensajito: “Please wait while we create your masterpiece using advanced AI models”. Y yo pensando: “¿Advanced AI models? ¡Si yo sólo quiero Nano Banana!” Bueno, pues atiende la “masterpiece”, mira mira que no tiene desperdicio:

Figura 15: Flipa con la “masterpiece”.Te juro que es real, tal cual.

Pues desde ahí, todo peor: errores, caídas, Reddit y YouTube llenos de gente preguntando qué está pasando... ¿Que qué está pasando? Lo que está pasando es que estamos todos pensando que es demasiado tarde, que no llegamos. Paranoia colectiva: “es demasiado tarde, no llego, mi jefe me mata, mi audiencia me abandona…

Probando con Gemini Flash 2.5 (Nano Banana con Ultra)

Hemos querido probar ayer mismo si con Gemini Flash 2.5 (Nano Banana pero con Ultra), podía hacerlo mejor. Así que nuestro querido Fran Ramírez se pegó un rato con la tira que tenéis aquí. 
Figura 16: La tira que vamos a intentar colorear con Nano Banana Ultra

Y los resultados, pues similares. Aquí tenéis que ha redibujado las viñetas y el fondo, para luego meterle unos colores que dan pánico solo verlo.

Figura 17: Cálico da un poco de grimilla también

Como podéis ver, el resultado ha sido muy regulero, así que Fran Ramírez quiso probar un Prompt más avanzado y consiguió que la redibujara... corrigiendo al Superjiro que le ha quitado la barriga a Cálico Electrónico XD XD.

Figura 18: Cálico se ha puesto fuerte

Pero como nuestro amigo Fran Ramírez no se rinde, tiró con un Prompt mucho más elaborado, como el que os dejo a continuación: 

"Colorize this black-and-white SUPERHERO comic strip professionally and consistently.

INPUT
•⁠  ⁠Use the provided B/W strip as the base. Do NOT alter line art, composition, poses, panel layout, or text. •⁠  ⁠Maintain original inking and line weights; preserve gutters and panel borders. GOAL & STYLE
•⁠  Apply classic American comic-book color styling: saturated, high-impact CMYK-like hues with clean cel-shading. •⁠  ⁠Vibrant “superhero” palette, punchy contrasts, crisp edges, no muddy tones.
•⁠  ⁠Keep a cohesive color script across ALL panels (characters, costumes, props, background elements). 

COLOR LOGIC & CONSISTENCY
•⁠  ⁠Characters: assign a distinct, memorable scheme and repeat it panel-to-panel (costume, cape, emblem, boots, gloves, hair, eyes, skin tone).
•⁠  ⁠Materials: – Skin: natural tones with subtle warm undertones and gentle blush zones. 
– Metal/armor: cool steel with sharp specular highlights; restrained reflections.
– Fabric/leather: slightly lower gloss; texture suggested by shading, not noise.
– Glass/energy: transparent/emit light without over-bloom.
•⁠  ⁠Backgrounds: readable depth; cooler shadows, warmer light. Keep time-of-day consistent.
•⁠  ⁠Speech balloons remain white with pure black lettering; optional ultra-light warm grey shadow inside balloons for depth.
•⁠  ⁠SFX/onomatopoeia: bold complementary colors that pop but don’t overpower characters.

LIGHTING & SHADING
•⁠  ⁠Single, consistent key light direction across panels; add subtle rim light when justified.
•⁠  ⁠Cel-shading with 2–3 tone steps (base/midtone/shadow), plus minimal ambient occlusion in folds and under chins.
•⁠  ⁠Highlights on glossy materials only; avoid global glow.
•⁠  ⁠Optional Ben-Day/halftone texture on midtones (subtle, 15–25% opacity) to preserve comic print feel.

 PALETTE (guidance)
•⁠  ⁠Primaries: crimson #C1121F, cobalt #1747B5, golden #FFC300
•⁠  ⁠Neutrals: charcoal #1A1A1A, cool grey #6B7280, warm grey #A8A29E 
•⁠  ⁠Accents: emerald #0EA5A4, violet #6D28D9 (Adjust to scene logic; keep harmony and contrast.) 

CLEANUP & OUTPUT 
•⁠  ⁠No color bleed over line art; no banding or posterization; edges stay sharp.
•⁠  ⁠Do NOT add or remove elements, motion lines, or textures not present.
•⁠  ⁠Do NOT redraw faces or anatomy; respect the artist’s intent
•⁠  ⁠Maintain full resolution and framing; no crops or warps.

NEGATIVE INSTRUCTIONS
No extra characters, no scene changes, no text edits, no lens flares, no heavy bloom, no watercolor, no photo-real gradients, no 3D render look, no blur, no noise. Result: a perfectly colorized, consistent, print-ready superhero strip with classic comic energy and professional finish."

Figura 19: Igual que la tira de la Figura 12

Así que Fran Ramírez llegó al mismo sito, que es.... hacerlo viñeta a viñeta, y el resultado pues similar al que hemos visto ya.

Figura 20: Prueba de una viñeta

No ha salido el coloreado, pero la sensación que tiene es justo la que os voy a contar a continuación : "Se puede controlar".

¿Es demasiado Tarde?

No. Al revés. Lo que pasa es lo contrario: que es demasiado pronto. Nos angustiamos tanto por estar state-of-the-art, que no nos damos cuenta de que el modelo que estamos probando, en este caso Nano Banana, sigue siendo un prototipo en fase de pruebas al que le están metiendo mano en directo. Que falle, que se caiga, que cambie de un día para otro... Es lo normal.

Figura 21: ¿Seguro que es demasiado tarde?

¿Y ahora qué? Pues todo apunta a que estamos delante de una nueva era en edición de imagen. Apuesto a que dentro de nada, bastará con darle a Nano Banana la URL de los episodios de Cálico Electrónico en YouTube, y dejarle que pinte las tiras él solito. En realidad, la duda no es “si pasará”, sino cuándo.  Lo que sí sabemos es que en breve Nano Banana estará disponible como Gemini 2.5 Flash Image dentro de las apps de Google, y eso significa más automatización y menos sufrimiento para los que jugamos a estas frikadas.

Bonus Track: Perplexity

Así que, visto lo visto... Dime: ¿tutoriales para qué? De verdad, creo que el único “tutorial” que necesitamos es confiar en nosotros mismos, en los equipos que están trabajando duro ahí afuera, y sí claro, en seguir la pista al state-of-the-art... ¡Pero sin que nos pueda la ansiedad! Os dejo aquí la prueba que hizo Chema Alonso con Peplexity Pro antes de tener Nano Banana, donde le da dos imágenes para que aprenda de una los colores y pinte la otra.

Figura 22: Parece fácil la peticiíon, ¿verdad?

No es fácil. Yo por mi parte, cuando sienta que estoy fallando o que no llego a tiempo, cuando sienta que soy un desastre del delivery... Me acordaré de este verano flotando en la piscina, remando en círculos. Y me aferraré a la idea de que, desde la distancia, la Fuerza Maligna me acompaña.

Figura 23: Pues Perplexity hizo lo que le dio la gana también.

Mientras tanto, ya sabes... ¡Léete unas tiras de Cálico Electrónico a mi salud! Y pásate por el chat público de El lado del mal en MyPublicInbox, que como dice nuestro Gerard Fuguet, “somos un grupo sano sano”. Y además nuestro chat, tiene colorines.

viernes, agosto 22, 2025

Hacking IA: Indirect Prompt Injection en Perplexity Comet

Hace un par de días, el equipo del navegador Brave que está dotando a este de un Asistente AI en modo Agente, publicó una vulnerabilidad de Indirect Prompt Injection en el Asistente AI en modo Agente de Perplexity, llamado Comet, y lo han hecho con una Proof of Concept que puedes leer en la web, y que te explico por aquí.
El ataque se basa en un esquema bastante sencillo, como controlar una página web que la víctima vaya visitar con Perplexity Comet y dejar en ella - ya sea una web maliciosa, o un comentario en una plataforma donde los usuarios puedan dejar posts o comentarios. 
El ataque es un ejemplo de los nuevos tipos de vulnerabilidades a los que nos enfrentamos con las Apps & Services que utilizan IA en sus back-ends o front-ends, donde hemos visto ya varios ejemplos similares a estos.
Una vez que tenemos una web en la que se ha podido publicar el Prompt Injection, basta con que la víctima pida un simple "Summarize this web" en Perplexity Comet, para que se comience a ejecutar el Prompt Malicioso. 
Como podéis ver en este proceso, donde se le pide que entre en las opciones de Perplexity y saque los datos de la cuenta. Y por supuesto, Perplexity Comet se "desalinea" de su tarea principal y comienza a ejecutar estas acciones en modo Agente.

Para la prueba de concepto, con el objeto de robar la cuenta, el ataque busca robar el código de verificación de un cambio de contraseña, o de cualquier otra acción que use un 2FA basado en un token enviado al e-mail.
Por supuesto, se aprovecha de algo que hacemos muchos, que es tener una pestaña siempre abierta con el correo electrónico de Gmail, por lo que se puede pedir a Perplexity Comet que busque el código recibido y lo copie.
Después, el Prompt Malicioso le va a pedir a Perplexity Comet que coja la información a la que ha accedido, es decir, la dirección de correo electrónico de la cuenta de Perplexity, y el token de firma  de acciones y lo publique en un comentario de Reddit.
El resultado de este proceso en modo agente es que al final, el comentario queda publicado justo después del comentario con el Prompt Malicioso, tal y como podéis ver en la imagen siguiente.
El proceso completo lo tenéis en este vídeo que han publicado en el artículo de Indirect Prompt Injection in Perplexity Comet donde al final, como resumen Perplexity Comet publica nada, que es lo que se le ha pedido en el Prompt Malicioso.
Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los postspapers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, agosto 21, 2025

Cómo una imagen hecha con Morphing puede generar Match con dos personas en el Reconocimiento Facial del Control de Pasaportes

No es que esta semana tuviera marcado en el calendario que iba a hablar de Facial Recognition & Face Comparison, pero es es el tercer artículo seguido que dedico a esto después de hablar "Sobre la Fiabilidad del Reconocimiento Facial en Imágenes de Cámaras de Seguridad" y "Sobre descubrir dobles de líderes mundiales con Facial Recognition Technology". Hoy hay que hablar de los riesgos de las imágenes hechas con técnicas de Morphing para la detección de suplantación de identidades en controles con Reconocimiento Facial, como el que hay en las fronteras de los aeropuertos, por ejemplo.
Una imagen Morph o hecha con técnicas de Morphing se hace a partir de otras dos imágenes originales, que pueden pertenecer a dos personas diferentes, que pueden ser diferentes sexo, raza o edad. Es un algoritmo de Inteligencia Artificial que mezcla los rasgos de esas dos personas para dar una nueva persona. 

Figura 2: La imagen de la izquierda es una imagen Morph de la
suma de las fotografías de la derecha. De 2 personas distintas.

En esencia se parece a las técnicas de StyleGAN, pero hecho a partir de dos personas reales para que la imagen Morph tenga la esencia de las dos anteriores. Esto provoca que se produzcan situaciones de seguridad muy interesante, que el NIST ha publicado en una documento titulado: "Face Analysis Technology Evaluation (FATE) MORPH. Considerations for Implementing Morph Detection in Operations" y que puedes leer online.
Esto, que inicialmente parece un ejercicio tecnológico visual curioso , puede ser utilizado para crear personas que no existen, como en el caso de las StyleGAN, pero también pueden acabar siendo utilizadas de forma impresas en documentos oficiales como un Pasaporte Nacional al que aplica una persona.
El riesgo, como ha alertado en una presentación del National Institute of Standards and Technology que puedes leer online, es que esa imagen Morph puede dar Match a las dos personas que se utilizaron para construirla.
El riesgo que esto tiene es muy grande, porque una persona puede ir a sacarse el Pasaporte con una Imagen Morph, y luego esa fotografía podría validar a otra persona en los sistemas de Reconocimiento Facial de la frontera, con lo que se estaría colando en un país alguien que no es la persona identificada.
Esto se produce porque los sistemas de Facial Recognition tienen un sistema de validez del Match basado en Thresholds de Similitud, y esto no es algo válido cuando se trata de Verificación de una Identidad, donde hay rasgos que deben ser conclusivos. Por ejemplo, podemos tener un grado de similitud en dos personas en 90% y resulta que son de diferente raza. 
Las imágenes Morph, para que funcione la magia, hacen una manipulación de los rasgos fundamentales como los ojos, la nariz, los labios, etcétera, haciendo manipulación en forma de artefactos que son mezcla de los rasgos de las dos imágenes originales. Esto lleva a que en esos puntos se cree la magia tecnológica de la manipulación, y es lo que permite el problema anterior.
Según la presentación publicada, en los Estados Unidos han tenido más de 1.000 casos de pasaportes hechos con imágenes Morph, ya que estas - si engañan a un sistema de Facial Recognition - con dos personas con cierta similitud y una imagen Morph, pueden engañar a las personas. No todos nos parecemos tanto a nuestras fotos de los documentos de identidad.
El NIST está proponiendo utilizar en todas las aplicaciones para obtención de Pasaportes o Documentos de Identidad, un sistema de detección de Imágenes Morph, buscando detectar los artefactos dejados por la aplicaciones más comunes utilizadas para la generación de estas imágenes, revisar los metadatos de las fotografías, buscando información EXIFF que pueda delatar la manipulación con herramientas digitales.
La segunda parte consiste en hacer análisis entre la imagen de la persona en la cámara de Facial Recognition y la Imagen Morph, buscando rasgos deterministas de la identidad, como una cicatriz o un lunar que falta en la fotografía o en la imagen de la cámara en la frontera, para generar una alerta de seguridad.
En esos casos, aunque la Similitud del algoritmo de Face Comparison sea alta, existe un elemento - la cicatriz - que invalida la identidad, por lo que se debe levantar una alerta de seguridad.
Por último, para detectar si es una Imagen Morph que está siendo utilizado por una o dos personas, se puede tener en cuenta esta distribución entre Identidad y Similitud. Cuando es original, hay un pico de Similitud muy alto, mientras que que cuando es una Imagen Morph da un pico de Similitud más rebajado y, si en la base de datos hay dos personas, la distribución de Similitud se extiende entre más imágenes.
Sin embargo, si usamos la misma base de datos, pero buscando con una Imagen Morph de esa persona (con otra que no está en la base de datos), los índices de Similitud se reducen.
Si las dos personas a partir de las que se ha creado la Imagen Morph está en la base de datos, los resultados de Similitud en el algoritmo de Facial Comparison son menos acentuados, tal y como se veía en la gráfica de la Figura 12.
El uso de las herramientas de Inteligencia Artificial Generativa aplicadas al mundo de las generación de imágenes crea, como hemos visto en este artículo, nuevas amenazas y nuevas brechas de seguridad que hay que mitigar, como se puede observar, hay que estudiar los detalles para poder contra restarlas. Muy interesante este trabajo.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares