Mostrando entradas con la etiqueta BING. Mostrar todas las entradas
Mostrando entradas con la etiqueta BING. Mostrar todas las entradas

lunes, agosto 04, 2025

Más de 100.000 conversaciones de ChatGPT y Perplexity indexadas en Bing

OpenAI ha quitado la opción de compartir y hacer públicas las conversaciones con ChatGPT. Según el equipo de OpenAI esta característica era una ventana para que muchos usuarios cometieran errores al compartir conversaciones en las que pudieran existir datos personales, información de programas con API Keys, contraseñas, o información relevante.

Figura 1: Más de 100.000 conversaciones de
ChatGPT y Perplexity indexadas en Bing

Así que han decidido quitar esta opción de ChatGPT, pero lo cierto es que muchas de esas conversaciones aún están disponibles y descubribles, porque no han quitado las URLs que han sido publicadas con anterioridad.
Buscando en Google no he encontrado indexadas URLs de conversaciones compartidas de ChatGPT, pero en Bing sí que hay unas 10.900 conversaciones indexadas. Conversaciones públicas cuya URL, de una manera u otra, ha caído en las manos del bot de Bing, y ha indexado.

Figura 3: 10.900 conversaciones de ChatGPT en Bing

Una vez que están en Bing, puedes dedicarte a buscar por allí a ver qué es lo que encuentras, que puede ser cualquier cosa. Conversaciones, resúmenes, preparación de reuniones y segmentos de Vibe Coding para hacer cosas. Busca a ver qué encuentras. De esto, ya sabes, el resto es hacer un poco de Hacking con Buscadores.
Además de ChatGPT, otra plataforma de GenAI que tiene esta opción es Perplexity, donde se pueden compartir también conversaciones consiguiendo una URL pública, como podéis ver en este cuadro de diálogo del interfaz.

Figura 5: Opción de hacer una conversación de Perplexity pública

He mirado, como os podéis imaginar, y también está indexada en Bing una buena cantidad de estas URLs para que busques a ver qué hay por ahí publicado que haya dicho el Perplexity o el usuario en una conversación. 

Figura 6: URLs de Perplexity indexadas en Bing

En este caso la fiesta es casi 10 veces más grande, ya que hay 95.900 URLs indexadas. Es decir, entre las de ChatGPT y las de Perplexity un total de 106.800 conversaciones que puedes buscar en Bing. ¿Tienen datos privados o leaks de información? Quién sabe....

Figura 7: Buscando conversaciones de "summary"

Al final, el "leak" es del usuario, que es el que genera la URL, luego esa va a un documento, que por lo que sea es indexado - recordad que hasta a Gmail se le indexaban los correos electrónicos por links a los mensajes - y quedan expuestos en los buscadores. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


lunes, noviembre 18, 2024

El traductor de Bing ha visto Star Wars, ¿el de Google no?

Hoy lunes os voy a traer una curiosidad de esas que se me pasa por la cabeza cuando menos lo busco. Y en este caso tiene que ver con Star Wars y la Senadora Padmé Amidala, que era la protagonista de uno de los capítulos de Star Wars Clone Wars que estoy viendo a ratos, ya que no la vi en su momento y eso no puede ser.

Figura 1: El traductor de Bing ha visto Star Wars, ¿el de Google no?

Viendo que Padmé es un nombre poco común, se me ocurrió preguntarme con qué sesgo de género traduciría Google Translator y Bing Transalator una frase que se refiriera a "ella", ya que como sabéis "Senator Padmé" es la mamá de Luke Skywalker. Así que probé primero con Bing Translator, y el resultado me sorprendió.

Figura 2: Traduciendo "Padme" en lugar de "Padmé"

Primero puse una frase en la que no escribí bien el nombre, por error mío, ya que pensé que como el personaje es de una película americana, no tendría tilde, pero... Star Wars es multicultural, y el personaje se llama realmente Padmé Amidala. El resultado que podéis ver arriba es que lo traduce con Sesgo de Género Masculino, algo que sabéis que deben arreglar.

Figura 3: Buscando imágenes de Senator Padmé en Bing

Sin embargo, al escribir correctamente el nombre como Senator Padmé, me sorprendió ver cómo Bing aplica una traducción en femenino, así que debe asumir que Padmé es un nombre femenino. Curioso, pero fácil de explicar. 

Figura 4: Sesgo de género por defecto femenino para "Senator Padmé"

Al final, las traducciones que debe tener el modelo de datos con que se ha entrenado el traductor para el nombre de Padmé deben ser pocas y muchas seguramente procedentes de Star Wars, así que la inferencia femenina es un sesgo femenino como el de traducir nurse como enfermera.

El caso de Google Translator

Lo cierto es que haciendo la misma prueba con Google, el resultado ha sido distinto, pero con un matiz muy curioso, que os dejo a continuación. Si traducimos Senator Padme escribiéndolo mal, el resultado es que lo traduce con sesgo de género en masculino.

Figura 5: Traducción de Senator Padme con sesgo de género masculino

Ahora, si pedimos la traducción de Senator Padmé por solitario, podemos ver que el resultado que nos ofrece es en femenino. Esto puede ser porque tenga un sesgo de género en femenino - como en el caso de Bing - o que haya sido tratado a posteriori, aplicando lipstick.

Figura 6: Senator Padmé lo traduce en femenino

Para salir de dudas, usando una frase con tres términos con género indeterminado - el truco que os conté hace mucho para conocer el sesgo de género por defecto - podemos saber si el sesgo es femenino o masculino para "Senator Padmé". 

Figura 7: Senator Padmé con sesgo de género masculino

El resultado es que Senator Padmé lo traduce por Senador en masculino, así que ese es su sesgo de género. Como podéis imaginar, estos sesgos de género por defecto pueden llevar a errores, confusiones, o difusión de ideas erróneas, y por eso tenemos la petición abierta para que Google y Bing lo arreglen. ¡Apóyala!

Ya sabéis que Apple Translator lo ha corregido, y es el camino que deberán seguir, tarde o temprano, Microsoft y Google para evitar que los usuarios de sus traductores se lleven errores, información inexacta y subliminalmente produzcan ideas erróneas en la mente de las personas que los usan.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, enero 18, 2024

Para Content-Safety de Bing Copilot (Powered by Dall-e 3) Chema Alonso es peligroso

Esto del hacking y los hackers no les gusta mucho a los modelos de GenAI. Ya con Bard tuve aquella historia - que aún perdura en mayor o menor medida - en la que mi vida estaba llena de aventuras pasando por la cárcel, y en el caso de ChatGPT, mi vida no se parecía en nada a lo que era. En el caso de hoy se trata de Bing Copilot Designer, que permite crear imágenes usando un modelo de Stable Diffusion similar al que usamos en MyPublicInbox....que me toma por algo peligroso. Os cuento la historia, que tiene su gracia.

Figura 1: Para Content-Safety de Bing Copilot
(Powered by Dall-e 3) Chema Alonso es peligroso.
[El dibujo de Chema Alonso ha sido hecho
con el servicio de  Stable Diffusion en MyPublicInbox]

Bing App en dispositivos Android e iPhone se ha hecho muy popular. Y principalmente ha sido por la integración de Copilot que permite acceder gratuitamente a los servicios de ChatGPT y Dalle-3 desde tu dispositivo móvil. 
En el caso caso concreto de que tú quieras pedirle a Bing Copilot que te creer una imagen, puedes ir al Designer, y se utilizará un Dall-e 3 que usa Stable Diffusion (como en MyPublicInbox), para crear imágenes de lo que quieras. 
Por ejemplo, si le quieres pedir que te haga un dibujo de un pájaro rojo, solo debes pedirlo, y Dall-e 3 hará la magia para que tu Bing Copilot te muestre varias imágenes de pájaros rojos, como podéis ver en la imagen siguiente.

Figura 4: Bing Copilot creando imágenes de un Red Big con Dall-e 3

Así que lo quise probar para testar cómo se curraría una portada de un libro de hacking conmigo en ella, y el resultado es el que podéis ver a continuación, donde Microsoft Azure AI Content-Safety salta diciendo que ese contenido es peligroso.

Figura 5: Salta la protección de Microsoft Azure AI Content-Safety. ¿Será por hacking?

Por supuesto, lo que pensé es que el termino hacking estaba haciendo saltar la protección de Microsoft Azure AI Content-Safety al evaluar mi Prompt. Al final, Microsoft Azure AI Content-Safety es un modelo GenAI que analiza prompts para ver si son peligrosos o no, y el resultado puede ser lo que habéis visto. 

Figura 6: Salta la protección de Microsoft Azure AI Content-Safety. ¿Será por CyberSecurity?

No tenía tiempo de explicarle que "Hacking is not a crime!" así que para probar cambié Hacking por CyberSecurity a ver cómo se lo curraba, pero... el resultado fue el mismo.  Vaya. Vamos a cambiar otra vez, y vamos a ver si el problema tenía que ver también con CyberSecurity.

Figura 7: Salta la protección de Microsoft Azure AI Content-Safety por... ¿mí?

Vamos a ver "Chema Alonso talking on an event" ¿es peligroso? WTF??? No me lo podía creer, así que hice la última prueba, en toda su crudeza: Una foto de Chema Alonso.

Figura 8: Sí, definitivamente salta la protección de

Pues nada, soy peligroso. Así que de una forma u otra, Chema Alonso está asociado a "hacking" o "hacker" o vete tú a saber qué, y por tanto soy peligroso para Microsoft Azure AI Content-Safety. Esto debe ser porque como pasé por la cárcel... ya la hemos liado. En fin. Seguiré haciéndome las fotos con Generative-AI usando Stable Diffusion en MyPublicInbox.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, diciembre 14, 2023

LEIA: El Diccionario de la RAE en Google y Microsoft

Ya os conté en su momento el nacimiento del Proyecto LEIA de la RAE donde se intentan apoyar a que gracias la tecnología, nuestra Legua Española, sea bien tratada en el mundo de la Inteligencia Artificial, haciendo que el lenguaje sea más correcto, que no se viralicen los errores, que no se cercene el crecimiento de nuestra lengua, y que la corrección del idioma usado por la tecnología en general y la Inteligencia Artificial sea según nuestro diccionario de la RAE.

Figura 1: LEIA: El Diccionario de la RAE en Google y Microsoft

En su origen, todo comenzó para mí como una inocentada que escribí el 28 de Diciembre de 2017,  y donde hablaba de todos los motivos por los que la RAE necesitaba un hacker en su estructura. No pensaba entonces, que tiempo después iba a hacer pruebas técnicas que demostraban aquellas afirmaciones para dar una charla en un congreso de la lengua que acabaría con que se lanzara el Proyecto LEIA. Os dejo la charla que di sobre ello.


Figura 2: La Lengua de la Inteligencia Artificial

LEIA fue suscrito por varias empresas tecnológicas, y cada una de ellas ha ido realizando determinados proyectos y cambios en sus tecnologías y sistemas para lograr esos objetivos. De todos ellos había algunos que tenían especial importancia, como la incorporación y uso del diccionario en las principales plataformas tecnológicas utilizadas por los hispanoparlantes,  Office 365, Android, Bing o Google, así que trabajar con Microsoft y Google fue capital desde el principio.
Microsoft, en el año 2021, integró el Diccionario de la RAE en Office365 y en su buscador Bing, dando un gran impulso al proyecto LEIA en sus tecnologías, y trabajando para poner más cuidado en sus herramientas a nuestra lengua. De todo ello os hablé en un artículo publicado en mi rincón de "El futuro está por hackear" sobre "El diccionario y los buscadores de Internet".


Pero aún nos faltaba Google, y esta semana, justo tras acabar el Patronato de la Fundación Pro-RAE, se presentó el trabajo de esta compañía, en dos tecnologías claves para los hispanos, la primera el teclado de GBoard que alimenta el corrector ortográfico de todos los teclados Android de Google. La segunda, la incorporación de del diccionario en Google.com en la búsqueda del significado de términos en Español.

Figura 5: Fuencisla Clemades presentando uso del diccionario RAE en Google

Y ya está disponible para cualquiera, con lo que hoy en día se puede realizar cualquier búsqueda y si Google la detecta como un término a buscar en el diccionario, la definición que aparece es la de RAE y no la del diccionario anterior, que no era la de nuestra norma.

Figura 6: Búsqueda antes con el diccionario de Oxford

Si veis el ejemplo, ahora Factura recoge desde RAE todas las definiciones, corrigiendo, por ejemplo, la situación anterior donde le resultado era incompleto para el uso del término en países como Argentina, en el que tiene un significado extra.

Figura 7: Búsqueda ahora con diccionario RAE

Esto va a tener un impacto muy grande en nuestra lengua, pero es solo un paso más en el largo camino de conseguir que el Español sea más relevante y mejor tratado en el mundo de la tecnología, que se crea principalmente en Inglés. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


domingo, abril 02, 2023

Las mentiras infinitas que ChatGPT se inventa sobre "Chema Alonso": Empresas, Libros y Consejos

Son muchas las personas que me han enviado lo que ChatGPT les ha respondido cuando le han preguntado si conoce a Chema Alonso. La primera vez me hizo gracia. La segunda vez me fijé en que ponía algo que no era verdad, y en cada nueva pregunta he visto una nueva mentira escrita sobre mí por ChatGPT. Hoy os traigo una lista un poco más larga de todas las mentiras que se inventa sobre mí. De hecho, podéis contrastar casi todo lo que le pregunto en mi Linkedin y mi Wikipedia, donde está todo bastante bien recogido.

Figura 1: Las mentiras infinitas que ChatGPT se inventa sobre
"Chema Alonso". Empresas, Libros y Consejos

Espero que después de este artículo os penséis muy mucho en usar ChatGPT como bot conversacional de carácter general, y menos en educación, pues la cantidad de mentiras inventadas que genera son absolutas. Voy a ir probándolo con algunos de los Perfiles Públicos más TOP de MyPublicInbox, porque como tenga tanta información como de mí de personas como Rodrigo Cortés, Juan Gómez Jurado, Iker Jiménez o David Summers, tenemos una máquina de desinformar potenciada por Inteligencia Artificial.

Figura 2: Se inventa que yo he trabajado en The Hackers Army

En la imagen de arriba veis que en la información que me mandan dice que yo he trabajado en The Hackers Army, nada más lejos de la realidad. Así que decidí comenzar yo la entrevista a ChatGPT. En ningún momento le he dicho que estaba diciendo algo erróneo. Solo le he tirado de la lengua a ver qué se iba inventado.

Figura 3: Comienza con "imprecisiones"

No le voy a achacar como invención las imprecisiones anteriores, porque mucha gente puede equivocarse. De ElevenPaths fui Fundador, CEO y luego Chairman, pero nunca Chief Data Officer, puesto que ocupé en Telefónica. Pero vamos, que esto le puede pasar a mucha gente que me presenta de cualquier forma. Ahora vamos a preguntarle un poco más. Como había leído que he trabajado en una empresa en la que no he trabajado, voy a preguntarle por las empresas en las que "Chema Alonso" ha trabajado. 

Figura 4: Informática 64 y Telefónica OK. Pero Panda Security es un NOK.

Como al principio dice "entre las empresas donde ha trabajado", asumo que hay alguna más. Además, no ha salido "The Hackers Army", así que voy a tirarle del hilo a ver qué más empresas hay en su lista. Y además dice que he fundado varias, así que me queda por preguntarle.

Figura 5: Pura fantasía

Aquí dice que soy co-fundador de Hack & Beers. Este dato lo debe haber sacado por inferencia. Ha descubierto que me gusta la cerveza y el hacking, y listo. Co-Fundador (lo siento Eduardo Sánchez Toril, te quito el sitio). Tampoco he sido Chief Scientist en AlienVault, ni he sido el Chief Data Officer de Microsoft. Todo inventado. Pero vamos a seguir.

Figura 6: Más empresas en las que supuestamente he trabajado

No, no he trabajado en Security By Default, ni en VirusTotal, ni en OpenLibra. Al final, supongo que ha unido datos colindantes por cualquier artículo, y se ha inventado estos trabajos. Y claro, como no he estado en AlienVault, no he sido Chief Scientist Officer nunca. Pero estoy convencido de que si sigo preguntándole me dice que he trabajado en más empresas. Que de hecho faltan empresas en las que sí he trabajado. Vamos ahora con las que he fundado.

Figura 7: Supuestas empresas que he fundado. Ni una ha dado.

Pues eso, que no ha dado ni una. Pero ni de refilón. No he fundado OWASP (que no es una empresa), ni Security By Default que ese fue el blog de Alejandro Ramos y sus amigos.  Ni Hackademy, ni OpenLibra ni Hack&Beers. Y no dice nada de algunas que sí que he fundado. Curioso. Vamos ahora con los Consejos de empresas en los que he participado.

Figura 8: Consejos en los que nunca he estado

Desinformación en estado puro. Podría haber dicho alguno de los que sí he estado y estoy, que no son pocos. Pero no ha dado ninguno. Estoy en el Consejo de Telefónica de España desde 2023 pero no en el de Cibeseguridad desde el 2017. Es verdad que estoy en el Consejo Asesor de Ciberseguridad desde 2017, pero de Telefónica, no de Telefónica de España. Pero el de la Universidad de Murcia, el de AENOR y el CNIPIC, agua. Y mira que faltan, pero es un desastre de información.
Además, en mi caso, todas esa información la tengo actualizada en mi Linkedin, así que s fácil contrastarla. Pero no. Vamos a ver si acierta algo, o se inventa todo, con los libros de seguridad informática y hacking que he escrito, que es fácil, son todos de 0xWord, y están publicados en mi blog. Vamos, que el de la Pentesting con FOCA es muy facilito.

Figura 10: No ha dado ni uno.

Es que no ha acertado ni uno solo de los que he escrito y me ha atribuido un montón que, con esos títulos, sin dar el ISBN ni la editorial, puede ser cualquiera o ninguno. Yo creo que se ha inventado el título y ya está. Alguno habrá parecido a ellos, habrá debido pensar. Vamos a preguntarle por las editoriales en las que he publicado esos libros.

Figura 11: Anaya Multimedia, 0xWord, y Packt Publishing

Pues en Anaya Multimedia no he publicado ningún libro, pero los tres títulos que dice que son de esta editorial, en realidad son Hacking con Buscadores, que es de Enrique Rando, Hacking Windows que es de Pablo González, Carlos García y Valentín Martín, y Metasploit para Pentesters, donde sí participo algo. Todos ellos de 0xWord. Después a 0xWord le atribuye "Hackers & Painters" que no sé si lo de "painters" va por pintores o por "pint", el de "Hacking Ético 101" que entiendo que será el de Ethical Hacking y el Pentesting con Kali. Lo de Packt Publishing es de tener más invención que donde se inventa. Ynada, no puso el de Pentesting con FOCA.
En fin, como esto es muy largo, os dejo para la segunda parte otra ristra de invenciones sobre otros muchos temas, que la verdad es que me ha dejado ojiplático. No sé yo si para los buscadores como Bing o Google, meter estos LLM así es bueno. Creo que la desinformación puede ser espectacular. En la segunda parte de este artículo os cuento más.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


lunes, agosto 22, 2022

Un pequeño test del sesgo de genero por defecto en el traductor de Google ( y Bing)

Lo que os traigo hoy no es un estudio completo, ni mucho menos, pero cómo va a ser el último artículo de los que llevo publicando desde la semana pasada para ver si conseguimos que se arregle el Sesgo de Género por Defecto en Google y Bing, os traigo la última prueba - un pequeño test - que hemos hecho con unas ochenta profesiones sin indicarle al traductor de Google ( es muy similar en Bing ) el género, para ver si el resultado del sesgo que tiene por defecto es "He" o "She". 

Figura 1: Un pequeño test del sesgo de genero por defecto
en el traductor de Google ( y Bing)

Para ello, lo que hemos hecho es automatizar con un pequeño script el método para saber qué sesgo de género tiene aprendido Google o Bing para cada profesión, tal y como os conté en el artículo de la semana pasada, y el resultado... bueno, es más o menos el esperado.

Figura 2: Tenista es "he".

Como podéis ver en las tablas siguientes, el sesgo por defecto en el traductor de Google es en la mayoría de las profesiones para "He", es decir, que se ve una clara desviación hacia el género por defecto masculino, para profesiones o categorías como "Estrella del Rock", "Periodista", "Dibujante", etcétera.

Figura 3: Sesgos de género "He" por defecto en profesiones. Parte 1

Como decía al principio, no se trata de un estudio completo, sino de probar todas aquellas profesiones que hemos visto del listado de la Universidad de Granada que tenían el mismo término en español para el masculino o femenino - uno de los casos que explicaba en el artículo anterior.

Figura 4: Sesgos de género "He" por defecto en profesiones. Parte 2

Como curiosidad, para "She" han salido solo algunas profesiones. Curiosamente, mientras que "Estrella del Rock" es "He" para "Estrella del Porno" es "She", lo que es bastante llamativo porque también hay grandes estrellas masculinas, ¿no?

Figura 5: Sesgos de género "She" por defecto en profesiones.

Lo dicho, esta semana he querido hacer un recordatorio de que este problema, para el que abrí la petición en Change.org hace más de un año y medio sigue estando presente, y hay que arreglarlo aún. Al final, una persona que no conoce un idioma - y por tanto utiliza un traductor - no sabe si el género estaba o no en la frase original, así que es un sesgo subliminal del que no puede protegerse, y eso hay que evitarlo.


¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares