lunes, octubre 31, 2022

Apertura del XII Máster de Ciberseguridad en el Campus Internacional de Ciberseguridad

El pasado 17 de Octubre se abrió el periodo de matriculación de la XII Edición del Máster de Ciberseguridad. Para dar el pistoletazo de salida Juanjo Salvador, director del Campus Internacional de Ciberseguridad me hizo una pequeña entrevista en la que hablamos de las oportunidades laborales en seguridad informática, de los programas de máster, de 0xWord, de Singularity Hackers, de MyPublicInbox y un poco del futuro con la Web3 y las oportunidades en ciberseguridad que vienen con ellas.

Figura 1: Apertura del XII Máster de Ciberseguridad
en el Campus Internacional de Ciberseguridad

La sesión duró poco más de una hora, y yo os la he subido a mi canal de Youtube, donde podéis ver todo lo que hablamos. Como es una entrevista sin demos ni diapositivas, podéis poner la sesión solo en modo audio y listo, así la escuchas mientras haces otras cosas - que yo lo hago mucho -.


Además de lo que hablamos, lo más importante como ya os he dicho antes, es que se ha abierto el periodo de matriculación para la XII Edición del Máster de Ciberseguridad, que dirige el gran Sergio de los Santos y que dará comienzo en el mes de Marzo de 2023. Entre los profesores del curso están Carmen Torrano, Juanjo Salvador, Pablo San Emeterio, Javier Espinosa, Juan Antonio Gil o José Rodríguez, entre otros.
El programa del curso, que puedes consultar en la web, tiene los siguientes módulos. Entre ellos, un Trabajo de Fin de Máster donde habrá alguno que propondré yo para los que quieran hacerlo. Como podéis ver, el programa es muy ambicioso, así que más vale que vengas con ganas de estudiar y aprender.
Además, los alumnos recibirán como material de estudio libros de 0xWord como complemento de estudio. En concreto, el libro de "Máxima Seguridad en Windows: Secretos Técnicos" de Sergio de los Santos, y el de "Ethical Hacking: Teoría y practica para la realización de un pentesting" de Pablo González.
Por último, todos los alumnos tendrán una sala de conversaciones en MyPublicInbox con los profesores del programa de formación - y conmigo - y recibirán Tempos de MyPublicInbox por si quieren hacer consultas a profesionales.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


domingo, octubre 30, 2022

Cómo recibir las alertas de mensajes en MyPublicInbox como DM en Twitter @mypublicinbox

Para los que utilizamos Twitter de manera muy intensa, los compañeros de MyPublicInbox añadieron una pequeña característica que sugirió un Perfil Público. La comentamos con nuestros amigos de Twitter, y que desde hace poco permite recibir las alertas de nuevos mensajes en la plataforma vía mensaje directo (DM: Direct Message) en Twitter. Para ello, es necesario hacer un proceso muy sencillo.
En primer lugar, hay que seguir la cuenta de Twitter de @MyPublicInbox que nuestros amigos de Twitter verificaron, que es la que está conectada con el motor de la plataforma de MyPublicInbox. Esto es algo que tienes que hacer directamente en Twitter, así que basta con un Follow y ya estarás conectado.
Y cuando llegue un correo a tu buzón de MyPublicInbox, la cuenta de Twitter @MyPublicInbox te escribirá un DM automáticamente y solo tendrás que entrar en la plataforma y ver el mensaje que allí tienes. Tan sencillo como eso.

Figura 3: DM en Twitter de MyPublicInbox cuando recibes un mensaje

En la sección de "Mi Perfil", tienes el selector para activar/desactivar las alertas de Twitter. Así, siempre tendrás control de estas notificaciones como con el resto de ellas.
Recuerda que puedes tener varias cuentas de correo electrónico asociadas a tu cuenta de MyPublicInbox para recibir las notificaciones, lo que te permitirá tener una cuenta para iniciar sesión, y otras para recibir los mensajes de alertas.
Esta característica de alerta por DM de Twitter la solicitó un usuario a nuestros compañeros Héctor o Leire que están para ayudaros y recibir cualquier sugerencia de mejora. Gracias a esta característica que hemos diseñado con Twitter, no te acabará ninguna alerta de MyPublicInbox en el spam.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, octubre 29, 2022

Cómo funciona Stable Diffusion - y Dalle-2 o Midjourney -: Open Source Generative-IA que crea imágenes artísticas (2 de 2)

Ya hemos visto en la primera parte de este artículo cómo funcionan de manera general los modelos de difusión, pero nos queda entender cómo meter en la ecuación el texto que insertamos como entrada. Además, es importante comentar por qué podemos utilizar esta enorme IA como es Stable Diffusion en nuestros ordenadores (aparte de que tenemos disponibilidad de ella al ser Open Source). 

Figura 8: Cómo funciona Stable Diffusion - y Dalle-2 o Midjourney -.
Open Source Generative-IA que crea imágenes artísticas (2 de 2)

Hacer esto con por ejemplo Dalle-2, si el modelo estuviese disponible para cargar en local, sería imposible ya que Dalle-2 tiene 3.500 millones de parámetros, IMAGEN, 4.600 millones. Stable Diffusion únicamente cuenta con 890 millones, pero su calidad no es menor que el resto de los modelos de IA. Vamos a ver cómo lo consiguieron.

La clave, los espacios latentes

La respuesta es que Stable Diffusion trabaja sobre espacios latentes, sobre codificaciones de muchas menos dimensiones que guardan las características más críticas de las imágenes que recibe (por eso en realidad se lo conoce como un modelo de difusión latente), mientras que el resto lo hace sobre las imágenes en su espacio RGB, con muchas más dimensiones. Estas codificaciones se realizan con el encoder de un Autoencoder Variacional. Al final de todo el proceso, el decoder de este autoencoder se utiliza para transformar la información latente en la imagen RGB de salida.

Esto quiere decir que la U-Net no trabaja sobre las imágenes en su espacio RGB, sino sobre sus versiones comprimidas (latentes), reduciendo en gran medida la carga computacional. Esta era una de las cosas que me quedaba comentar sobre el proceso de denoising (eliminaciones de ruido) con la U-Net, pero falta explicar de qué manera se introduce el texto en este proceso para guiar las generaciones de contenido. Antes, veamos en la imagen siguiente la arquitectura de esta IA.


De izquierda a derecha, recibimos una imagen de entrada RGB y la codificamos en su versión latente (Z) utilizando el encoder (E) del autoencoder, y entonces se empieza el proceso de difusión, es decir, la Cadena de Markov donde se va añadiendo ruido a la representación latente hasta tener la versión final llena de ruido (Zt).

En este momento, se recibe el texto de entrada (conditioning) y comienza el aprendizaje de la U-Net, que recibe la versión latente, el paso de la cadena y el texto para predecir los ruidos e ir eliminándolos, guiando la generación hacia algo que tenga “sentido” con el texto introducido y semejante con lo que ha sido entrenado (es decir, por ejemplo, si usas un dataset de imágenes de Picasso o de Okuda, como en este ejemplo, intentará recrear su estilo), generando con esta información en cada paso versiones menos ruidosas, tantas veces como la longitud de la cadena (T), hasta tener la versión latente final que metemos en el decoder (D) del autoencoder para generar la imagen de salida RGB.

Figura 10: Resultado de una imagen creada con Stable Diffusion
similando el estilo del gran artista Okuda San Miguel

Podemos pensar que, durante el entrenamiento, en el proceso de la Cadena de Markov en el que vamos generando las diferentes versiones latentes ruidosas (Diffusion Process), lo que estamos haciendo es generar una especie de dataset para un aprendizaje supervisado donde cada entrada consiste en tres valores (latente zt, texto, paso de cadena t) y la salida es la cantidad de ruido que se ha generado a partir del latente zt-1 entre el paso de la cadena t-1 y t

Como veis, el mismo texto para guiar la salida está presente en cada input del dataset, mientras que en cada uno de este input el latente y el paso de cadena cambia (valores zt y t). De esta manera, vemos como lo que se está haciendo en el denoising es entrenar al modelo a predecir ruidos, en donde al eliminar cada uno de ellos del correspondiente latente se obtendrá una versión menos ruidosa.

La importancia de los Transformers

Habiendo comentado la arquitectura de este modelo de difusión latente, queda responder a la siguiente pregunta: ¿Cómo se integra el texto de entrada en el proceso de denoising? Ha llegado el momento de hablar un poco de Transformers, que son otra de las grandes revoluciones que ocurrieron en el ámbito de la IA, sobre todo en el dominio del procesamiento del lenguaje (¿os suena GPT-3?). 

Como no es el tema central de este artículo, no entraré en detalle en su arquitectura, lo que nos interesa de ella es su componente conocido como Encoder. Por otra parte, tenemos que saber que los modelos de IA son modelos matemáticos, por lo que solo trabajan con números. De esta manera, cada palabra de un texto debe ser codificada antes como un vector de números (Word Embedding) de numerosas dimensiones.

Podemos entender como que cada dimensión del vector significa algo, como por ejemplo “familia”, de esta manera en esta dimensión la palabra “bebé” y “padre” tendrán valores similares. Por lo que también podemos ver que las palabras “cuchara” y “cohete” tendrán vectores de valores muy distintos, ya que no tienen mucho que ver. En la imagen siguiente se muestra un ejemplo, donde por ejemplo la palabra “casas” (houses) está más alejada (tiene menos relación) que el resto de las palabras, que son animales.

Figura 11: Ejemplo de word embedding en 2D

En un espacio de vectores de palabras de muchas dimensiones, existen infinidad de relaciones de este tipo que acaban generando una especie de “diccionario” donde cada palabra tiene su significado y sus relaciones con otras palabras, en forma de vectores numéricos. La clave de las capas de atención que se utilizan en el Encoder de los Transformers es que entrenando este tipo de modelos con enormes conjuntos de datos (textos) se pueden crear unos vectores de palabras muy potentes, ya que almacenan contexto sobre las otras palabras con las que se encuentra en el texto, cosa que ninguna otra arquitectura de IA logra hacer.

Esto que os acabo de explicar es necesario para entender cómo se integran los textos de entrada (vectores numéricos) en el proceso de denoising con la U-Net. Stable Diffusion utiliza los embeddings generados por el encoder de un Transformer perteneciente a una red neuronal (ClipText) pre-entrenada con enormes conjuntos de datos, estos datos con los que se entrena consisten en pares imagen-caption (pie de foto), en el que gracias al entrenamiento aprende a producir embeddings donde por ejemplo una imagen de un gato y la frase “una foto de un gato” están muy relacionados. De esta manera se crea un “diccionario” enorme con vectores de palabras que guardan gran relación con un montón de imágenes de Internet (que es al fin y al cabo de donde se obtienen las imágenes para entrenar el Encoder del Transformer).


De esta manera, en la arquitectura del modelo que vimos en la Figura 9, realmente el texto que se recibe en el proceso de denoising no son las palabras como tal, sino sus codificaciones en vectores numéricos, gracias al uso del Encoder pre-entrenado que acabamos de ver. Una vez hemos visto como llegamos a tener vectores numéricos en vez de las propias palabras que insertamos en el texto, podemos ver ya cómo se integran estos vectores en el proceso de eliminación de ruido. Para que la U-Net soporte el guiado de la generación mediante texto (Text Conditioning) se añaden una serie de capas en su arquitectura denominadas capas de atención.

Como vimos en la Figura 7, la U-Net está formada por una serie de convoluciones que son las que reciben el latente y el paso de la cadena (que, por cierto, este paso no se trata de un número escalar, sino que se codifica también como un vector numérico) y van procesando las características más relevantes. Ahora, después de que la entrada pase por las convoluciones y antes de encogerse en una menor dimensión, se introduce la capa de atención que recibe el vector numérico que representa el texto y lo mezcla con el espacio de información latente generado antes en las convoluciones. Este proceso se repite en las sucesivas convoluciones, de manera que ahora las convoluciones realizadas incorporan información sobre el texto.

¿Cómo se entrenó Stable Diffusion?

Para el entrenamiento, Stable Diffusion se entrenó con el dataset LAION-Aesthetics, consistente de pares imagen-caption, cuya estética de las imágenes se muestran en la imagen siguiente (ésta será la estética que se recreará en las generaciones de imágenes, puesto que el modelo ha sido entrenado con ellas). 


De esta manera, el modelo finalmente va aprendiendo un espacio latente del mundo (de los datos) que ha “visto” y, una vez se tiene el modelo entrenado, introduciendo un texto (que se transformará a vector numérico usando el Encoder del Transformer pre-entrenado) y empezando como semilla con un array latente aleatorio se genera la imagen de salida condicionada a este texto. El modelo analiza todo el “conocimiento” que ha adquirido gracias al entrenamiento para generar la imagen que entiende como “más probable”, “viajando” sobre el espacio latente aprendido. 


En este GIF se entiende muy bien a lo que me refiero con ir viajando sobre el espacio latente, donde para el prompt "An oil paintings of cows in a field next to a windmill in Holland" dependiendo de donde nos encontremos en el espacio latente se generan diferentes imágenes, aunque relacionadas.

Conclusiones

Las nuevas Generative-AI basadas en modelos de difusión han supuesto que mucha más gente haya empezado a hablar sobre la Inteligencia Artificial, pero no solo por gente que se dedica al sector tecnológico, - como hemos aplicado ya en el mundo de la Ciberseguridad - muchas personas ajenas a este sector también han empezado a conocer este campo tan emocionante, como es el de la IA.  

Figura 15: Libro de Machine Learning aplicado a Ciberseguridad de
Carmen TorranoFran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

Además, un gran sector dedicado al diseño gráfico va a poder aprovecharse de estos modelos para poder integrarlos en sus procesos creativos ya que, por ejemplo, ya existen plugins donde poder usar Stable Diffusion en Blender, herramientas donde con el texto que introduces cambias el material de un objeto, o incluso la gigante Adobe, ya está experimentando con todo esto también

Como siempre, lo mejor ocurre cuando mezclamos la tecnología con el talento del ser humano para crear ese valor, esa sinergia positiva, que en su conjunto vale más que si nos empeñamos en rechazar las nuevas tecnologías y no aprovechamos su potencial, yendo por caminos separados.

¡El futuro es prometedor!

Autor: 
Javier del Pino DíazIntership en Ideas Locas CDO

viernes, octubre 28, 2022

Cómo funciona Stable Diffusion - y Dalle-2 o Midjourney -: Open Source Generative-IA que crea imágenes artísticas (1 de 2)

El campo de la Generative-AI se ha convertido en un mundo muy dinámico y con constante innovación, sobre todo respecto a la generación de imágenes artísticas o directamente en competencia con el arte. Todos los meses aparecen nuevas investigaciones con nuevos avances en este ámbito, y adaptarse a ellos para ponerse al día con cada una de las contribuciones está siendo, cuando menos, desafiante.

Figura 1: Cómo funciona Stable Diffusion - y Dalle-2 o Midjourney -.
Open Source Generative-IA que crea imágenes artísticas (1 de 2)

Para ponernos en contexto, este año 2022 comenzamos alrededor de abril con la puesta en escena de Dalle-2, que seguro ya conocéis, ya que por aquí se habló de Crayon - basado den Dall-e mini - en los artículos de "Haciéndome un selfie con CrAIyon (Dall-e mini)", en el que veíamos "Cómo Dall-e mini (CrAIyon) pinta a personajes populares" o "Cómo Dall-e y OpenAI pintan con sesgos de género". Esta IA supuso una gran revolución, y aunque antes ya se habían presentado modelos similares, ésta fue la que realmente hizo gran acto de presencia, porque se empezaron a usar los llamados modelos de difusión (explicaré en qué consiste más adelante en este artículo) dejando boquiabiertos a todos aquellos que la probaban por sus fantásticas creaciones.
Desde ese momento, nuevas IA de este estilo surgieron como Midjourney, creada por un laboratorio independiente con este mismo nombre, IMAGEN, de Google (ésta aún no es accesible), o Stable Diffusion, creada por la startup Stability.AI. Recuerda que, siempre que hablamos de Machine Learning, recomendamos este libro el cual abarca los principios fundamentales del Machine Learning y además aplicado al mundo de la ciberseguridad.

Figura 3: Libro de Machine Learning aplicado a Ciberseguridad de
Carmen TorranoFran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

El nivel de calidad de estas IA es excepcional, cada una de ellas con sus peculiaridades, lo que puede hacer que te inclines por usar una u otra dependiendo de tu objetivo (o, por qué no, integrar varias de ellas a tu proceso creativo). El caso es que, o bien porque aún no son accesibles o porque no son productos libres, crear imágenes con ellas cuesta dinero, excepto una.

Stable Diffusion, parte 1

Stable Diffusion, que es una Generative-AI Open Source que permite generar imágenes artísticas en local en nuestros equipos utilizando nuestras GPUs (con más o menos mínimo 5GB de VRAM) o bien en la entornos Cloud con tarjetas gráficas alojadas (por ejemplo, con Google Colab, sin tener cuenta de pago). En este artículo veremos cómo funcionan en general estos modelos de difusión que son el corazón de estas Generative-AI, y en concreto, entenderemos cómo funciona Stable Diffusion que, al ser Open Source, tenemos acceso a su código completo.

Modelos de difusión

Para entender en qué consiste un modelo de difusión, observa este GIF, imagina que echamos una gota de pintura en un vaso de agua. Justo al caer la gota al agua, la densidad de la pintura será muy alta en un punto, y cero en otras partes. Al cabo de un tiempo, la gota se difundirá en el agua hasta alcanzar un equilibrio. Pensad que el hecho de que la gota de pintura esté en un punto equivale a tener una imagen en claro, sin ruido, y que con el paso del tiempo perdemos la información totalmente de la imagen, se “difunde en el agua”.

Figura 3: Difusión de pintura en el agua

La pregunta que nos hacemos ahora es, ¿qué pasaría  si pudiéramos revertir este proceso? Es decir, que, a partir de la pintura difuminada, podamos volver al punto donde la gota justo cae al agua. Obviamente, en nuestro mundo físico esto es imposible (no podemos volver atrás en el tiempo), pero en los modelos de difusión sí que es posible, es decir, podemos volver desde una imagen llena de ruido hasta su correspondiente imagen en claro, sin ruido. Los modelos de difusión funcionan replicando este proceso, es decir, a partir de una imagen, se va añadiendo ruido a ésta hasta tener una imagen totalmente llena de ruido, y después aprendiendo cómo revertir este proceso. 


Este ruido se aplica siguiendo una Cadena de Markov. Esta cadena básicamente significa que un determinado evento en un momento (t) solo depende únicamente del momento anterior (t-1). Es decir, se va aplicando ruido en sucesivos momentos (formando una cadena), pero la adición de ruido a la imagen en un determinado paso de esta cadena solo se realiza sobre la imagen del paso anterior. Esto es importante, porque es lo que nos va a permitir invertir estas adiciones de ruido posteriormente.

Añadir ruido a las imágenes

En los modelos de difusión, el ruido que se añade es el llamado Ruido Gaussiano. Básicamente, esto quiere decir que a la hora de elegir cómo aplicar el ruido en cada momento se sigue una distribución gaussiana. Si observamos la imagen, diferentes valores que forman esta distribución hace que esta se haga más ancha o estrecha y que se desplace a un lado u otro, pero la forma de campana sigue permaneciendo. 

Cuanta más estrecha sea la campana (color azul en la imagen) más probable es que de manera aleatoria el valor que se escoja sea muy cercano al valor sobre el que está centrada la distribución (en este caso, la distribución azul está centrada en 0, por lo que serán valores con más probabilidad cercanos a 0), y cuanta más ancha sea la campana (color naranja en la imagen), los valores aleatorios que se escojan serán más variados.


Veamos un ejemplo de cómo añadir ruido utilizando distribuciones gaussianas a una imagen. Para simplificarlo, suponemos que la imagen solo tiene dos píxeles (170 y 150). Podemos observar en la siguiente imagen cómo la distribución gaussiana se centra sobre la imagen, mientras que la anchura de la campana es un valor constante que se fija con anterioridad. De esta manera, añadir ruido significa seleccionar una posición aleatoria dentro de esta distribución, por lo que cambiarán los píxeles de la imagen y también la distribución se irá centrando en diferentes posiciones (dependiendo de los píxeles resultantes escogidos).

Figura 6: Ejemplo adición de ruido a imagen con distribución gaussiana

Como vimos antes, dependiendo de la anchura de la campana será más o menos probable que los nuevos píxeles escogidos sean cercanos a los píxeles originales. En este ejemplo, la campana es estrecha por lo que el punto coloreado de verde es más probable que sea escogido frente al punto rojo. Por lo que, por ejemplo, los nuevos píxeles escogidos serían (173,152), es decir, el punto verde, y la distribución gaussiana se centrará en ese nuevo punto.

La predicción del ruido con CNN

En los modelos de difusión, obviamente, se trabaja con ejemplos de muchas más dimensiones. Normalmente, la Cadena de Markov suele ser de una longitud del orden de unas 1.000 adiciones de ruido. Además, el ruido que se va aplicando en cada paso no siempre es el mismo, esto se va regulando con un planificador que va cambiando poco a poco las formas de la distribución gaussiana (si quieres entender toda la matemática que hay detrás, puedes leer este artículo). De esta manera, finalmente tras todas estas iteraciones se pierde totalmente la información de la imagen original.

El hecho de realizar muchos pasos en la cadena (unos 1.000), nos permite llegar a tener una imagen con mucho ruido pero que se han ido añadiendo a cantidades muy pequeñas, lo que facilitará posteriormente el proceso de “predecir” cuánto ruido se ha utilizado en cada paso y poder ir eliminándolo. Ahora bien, ¿cómo revertimos las adiciones de ruido? Invertir este proceso significa ir recuperando los valores de los píxeles hasta tener una imagen resultante que se parezca a la original, y aquí es donde entran en juego las Redes Neuronales Convolucionales (CNNs), en concreto, la red conocida como U-Net.


Como podéis ver, esta arquitectura tiene forma de U. Esta recibe una imagen de entrada y la va procesando mediante convoluciones hasta recoger la información más crítica en un espacio de menos dimensiones (espacio latente), y a partir de esta información crítica se van construyendo características de más dimensiones hasta lograr las requeridas (por ejemplo, se puede entrenar una U-Net que reciba imágenes en escala de grises y genere su respectiva imagen a color). 

En este caso, la U-Net se utiliza para predecir cuánto ruido se ha utilizado en un paso de la cadena. Es decir, dado por ejemplo como entrada la imagen con más ruido acumulado y el paso de la cadena en el que fue creada (que se correspondería con el momento T, el último paso de la cadena) le pedimos a la U-Net que genere la imagen del momento T-1, que tendrá algo menos de ruido, es decir, al fin y al cabo, estamos prediciendo el ruido utilizado en ese paso, el cual eliminándolo tendremos la imagen del momento T-1.

Aún hay más …

Volveremos a la U-Net más adelante en la segunda parte de este artículo y entenderemos mejor cómo se entrena esta red. Solo comentaros que, en realidad, esta arquitectura en forma de U no se utiliza en este caso exactamente como os he explicado. Por lo que se volvieron tan famosas estas nuevas Generative-AI generativas basadas en modelos de difusión es porque tú las puedes introducir un texto (concepto conocido como "input prompt") y te genera contenido artístico basado en el texto que has introducido, y sin embargo esto ni siquiera lo he mencionado de momento. Entonces, ¿cómo funciona la generación de imágenes basadas en los "prompts" de entrada?

Dalle-2, Stable Diffusion, Midjourney… todos estos modelos de difusión pueden recibir además entradas como por ejemplo textos (text2image) u otras imágenes (image2image). Estas entradas se las conocen como elementos de condicionamiento, ya que, como bien dice su nombre, condicionan la salida para ajustarse a lo que hemos pedido. En este artículo quiero centrarme en el caso text2image, el más famoso, donde introduces un texto a la IA y te genera contenido basándose en este texto. Y para explicar esto, vamos a ver cómo funciona Stable Diffusion en la siguiente parte del artículo.

Saludos,

Autor: Javier del Pino DíazIntership en Ideas Locas CDO

jueves, octubre 27, 2022

Presentación de "Las Tiras de Cálico 2" y Sesión de Firmas en la exposición de Superhéroes este Viernes 28 de Octubre

Mañana, Viernes 28 de Octubre, a las 17:00 horas de la tarde, vamos a tener un día muy especial, ya que en la exposición de "El Mundo de los Superhéroes por Randy Bowen" que tenemos en el Centro de Arte Tomás y Valiente de Fuenlabrada, donde podéis ver toda la colección de esculturas de superhéroes del gran Latro, tendremos la presentación del nuevo volumen de Las Tiras de Cálico 2.

Figura 1: Presentación de "Las Tiras de Cálico 2" y
Sesión de Firmas en la exposición de Superhéroes
este Viernes 28 de Octubre

Lo primero y más importante es que podrás conseguir este segundo volumen de Las Tiras de Cálico, además del volumen 1. El volumen primero, dibujado por Nikotxan, que tienes aquí mismo.

Figura 2: Las tiras de Cálico Electrónico Volumen 1

 el segundo volumen, cuyo autor es BloweArts, que si no puedes venir a la sesión de firmas para hacerte con el tuyo, las puedes encargar por Internet en la tienda online. Aquí lo tienes.

En la presentación estarán firmando los cómics de "Las Tiras de Cálico" y "Las Tiras de Cálico 2", el grandísimo e inigualable Nikotxan, creador de Cálico Electrónico y los personajes de su loco mundo, así como el "hacedor de su voz". Así que si le oyes y te suena de algo, sí, es él. Es Cálico Electrónico.

Figura 4: Contactar con Nikotxan, creador de Cálico Electrónico

Y también estará allí, el bondadoso y cariñoso Pablo Gómez Rodríguez "BloweArts" que se ha encargado de hacer las tiras de Cálico Electrónico de este volumen 2, que podrás comprar allí, y llevarte firmadas y dedicadas, ¡cómo no!


Además, en la sesión, si quieres, puedes tirarte fotos, y conseguir todo el merchandising de Cálico Electrónico, desde los famosos "Artógrafos de Cálico Electrónico", como el póster con todos los personajes de la serie, o alguna camiseta - si hay de tu talla, que el verano ha hecho estragos a muchos.
Y si quieres algo por anticipado, ya sabes, puedes contactar con ellos, o con 0xWord.com para conseguirlo. Ten en cuenta, que, también puedes encargar pegatinas de Cálico Electrónico que puedes pagar con Tempos de MyPublicInbox, solo tienes que hacer una transferencia de Tempos a 0xWord, recibir el código descuento, y luego comprarlas para recogida en tienda, y las puedes recoger en la sesión de firmas.También puedes hacerlo mediante la adquisición de un bono descuento con Tempos en la sección "Convierte tus Tempos" de MyPublicInbox tal y como ves arriba en la imagen siguiente.

Por supuesto, aprovechando que vienes, lo mejor es que ya te puedes quedar a ver la súper-exposición, que es lo más importante de todo. Y luego, a disfrutar el viernes, que ya puedes descansar del trabajo, y tomarte algo con los amigos.
¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


miércoles, octubre 26, 2022

Social Hunters: Hacking con Ingeniería Social en el Red Team @0xWord

Son pocos los libros que publicamos nuevos al año en 0xWord, y teníamos muchas ganas de lanzar ya el título de "Social Hunters: Hacking con Ingeniería Social en el Red Team" dedicado a las técnicas que utilizan los hackers de la ingeniería social. El libro lo han escrito entre Marta Barrio y Carolina Gómez, y desde hoy lo puedes comprar en la tienda online de 0xWord.

de 0xWordEscrito por Marta BarrioCarolina Gómez

El libro está pensado para leerlo y aprender trucos sociales que se pueden utilizar para engañar a una víctima, ya sea en un ataque de Red Team, o en un esquema mucho más elaborado como el que se utilizó en Stuxnet, donde la ingeniería social también contó con una rol muy importante dentro de este famoso ataque.
El libro tiene más de 200 páginas donde se aprenden trucos sobre nosotros los humanos, herramientas para recolectar detalles de ellos, y cómo preparar un buen gancho con un ataque de Phishing, o, incluso, preparando una trampa en su entorno físico sacando partido a las técnicas de Lockpicking. Os he subido el índice del libro a mi SlideShare.


Figura 3: Índice del libro "Social Hunters" de 0xWord.
Escrito por Marta Barrio y Carolina Gómez

El libro lo han escrito Marta Barrio y Carolina Gómez, con las que puedes contactar en MyPublicInbox cuando quieras. En palabras de ellas mismas:

La ingeniería social supone el principal método usado por los delincuentes a la hora de engañar a sus víctimas, y esto aplica tanto a la vida analógica como digital, la naturaleza empática del ser humano, sus ganas de ayudar y caer bien hacen de él la víctima perfecta. Por esta razón si se quiere estar lo más protegido posible es imprescindible conocer los por qué, y los cómo.
A lo largo del libro se hace un recorrido para intentar responder a estas preguntas, desde los principios en los que se apoya la ingeniería social, sus orígenes y casos reales, a cómo afectan a los seres humanos teniendo en cuenta la biología y su psicología.
Pero no todo es teoría, para ver cómo aplicar este conocimiento se profundiza en ejemplos de dos de las técnicas usadas en ingeniería social y sus herramientas (una en entorno físico y otra digital).

Dos recordatorios importantes con MyPublicInbox

El primero de ellos es que con la compra de este libro recibirás 100 Tempos gratis que recibirás en la plataforma MyPublicInbox, por lo que no te olvides de indicar en las observaciones de tu pedido, la dirección de e-mail que has utilizado para registrarte en MyPublicInbox, de ese modo podremos cargarte los tempos en tu cuenta.
Y el segundo recordatorio es que, como sabes, puedes canjear tus Tempos de MyPublicInbox para comprar éste o cualquier otro libro de 0xWord. Lo puedes hacer por medio de una transferencia a la cuenta de 0xWord, o mediante la adquisición de un bono descuento con Tempos en la sección "Convierte tus Tempos" de MyPublicInbox.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


martes, octubre 25, 2022

Contactos públicos en las redes sociales a través de @MyPublicInbox

Con muchos años de exposición en Internet al final son muchos los contactos sociales que se generan en la red. Muchos de ellos son muy valiosos, y en mi caso particular, me ha servido para desarrollar mi carrera profesional, para conocer a gente maravillosa y poder hacer proyectos enriquecedores para mi vida. He hecho entrevistas, dado charlas, acuerdos empresariales, y negocios con personas que he conocido por las redes sociales, por Internet o de la forma más casual en la red.

Figura 1: Contactos públicos en las redes sociales a través de MyPublicInbox

Por eso, estar en las redes sociales sigue teniendo valor para mí. Es un lugar para conocer gente espectacular, sentir qué está pasando por el mundo, qué hacen la gente que admiro, y seguir ampliando las posibilidades de hacer que mi trabajo llegue a más gente por los canales sociales. Por eso estoy en las redes sociales.
Pero para contactos directos, personales, con personas, profesionales, empresas, etcétera, utilizo mi buzón de MyPublicInbox. Es un canal perfecto para que pueda atender todos los mensajes que me llegan, y me da la seguridad de que la persona que me ha escrito realmente tiene interés en mí, en mi tiempo, y entiende el valor de las comunicaciones. 
Además, usar MyPublicInbox evita tener que publicar un correo electrónico personal en las redes sociales que sea usuario de servicios de Internet, y caer en listas de spam y malware que pueda ser un problema. Por eso, en mi cuenta de Twitter explica cómo contactar conmigo, a través de mi buzón de MyPublicInbox.
Como yo, muchos otros perfiles públicos, que además de tener un canal de contacto rápido y eficaz para contactar con ellos, permite proteger sus correos electrónicos personales. ¿Quieres contactar con cualquier perfil público? Mira qué fácil lo tienes. Hoy, he recogido algunos de ellos, especialmente amigos, que además de tener su buzón, lo usan de canal de contacto en las redes sociales, como hago yo. Hoy me he centrado en algunos amigos que lo usan en Twitter.
Todos ellos, cuando reciben un mensaje en su buzón de MyPublicInbox, lo leen, y lo contestan, por lo que esas personas que parece a veces que están lejos, están mucho más cerca de lo que piensas. Es la magia y la belleza de Internet, que puede acercarte a grandes personas de la forma más rápida, siguiendo los canales adecuados. 
A mí hay personas, empresas, etcétera, que compran mis datos de contacto, que buscan las formas más raras de contactar conmigo, cuando lo tienen tan fácil como escribirme por MyPublicInbox y yo contesto cuando lo lea. Algunos han hecho cosas de lo más extrañas que os iré contando en algunos artículos, porque os sorprendería lo que para algunos es una "aproximación" educada a una persona que no conoces y a la que le vas a pedir algo. 
Todos los que os dejo aquí, que son personas admirables, tienen una forma muy sencilla de contactar con ellos a través de MyPublicInbox. Y si tú tienes un canal social y quieres tener un contacto abierto, rápido y protegido, tener tu buzón de MyPublicInbox como canal de contacto en redes sociales es una muy opción que te va a ayudar a tener menos ruido en tu vida social, más tiempo para ti, porque el que te escriba tendrá interés real en ti.
Todos los que he seleccionado para el artículo de hoy, además, tienen la característica de que, cuando les contamos la idea, se la explicamos, les gustó y decidieron apoyar el proyecto, por lo que les estoy mucho más que agradecido. Que tengan su canal de contacto en redes sociales profesionales de su talla, para mí es un honor. Es el sueño de cualquier creador de tecnología: hacer cosas para que la gente las utilice.

Son muchos, muchos, muchos, los que utilizan MyPublicInbox como forma de contacto público en las redes sociales. Hoy solo he querido poner a algunos de los primeros "early adopters" porque ya sabéis que cuando está comenzando un proyecto, son los que más te ayudan y a los que más agradecido tienes que estar, pero podría extender la lista mucho.
Así que, si te parece que es un buen proyecto, mi recomendación es que tengas un buzón de MyPublicInbox para contactos de personas y empresas a través de las redes sociales. Solo tienes que abrirte una cuenta, solicitar ser Perfil Público, y configurarlo en tus redes sociales como forma de contacto.
Y si quieres contactar con alguna persona a la que sigues por las redes sociales, y ves que tiene un buzón de MyPublicInbox configurado como forma de contacto, pues ese es el mejor canal para llegar a ellos. Será fácil, respetuoso con todos, y te contestaremos.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

10 maneras de sacarle el jugo a tu cuenta de @MyPublicInbox si eres un Perfil Público

Cuando doy una charla a algún amigo, conocido, o a un grupo de personas que quieren conocer MyPublicInbox , siempre se acaban sorprendiendo ...

Entradas populares