miércoles, agosto 24, 2022

Cómo la Inteligencia Artificial dibuja con estereotipos y sesgos en Craiyon #Generative-AI #Dalle2 #OpenAI

No os voy a contar nada nuevo, porque se conoce desde que se hizo público Dall-e. Se trata de cómo cuando le pides que dibuje algo, lo hace totalmente sesgado de género, raza, edad, aspecto, etcétera. Es un ejemplo clarísimo de cómo viendo los datos volcados en Internet una inteligencia - artificial o humana - aprende subliminalmente por los datos que ve, y no porque le digan lo contrario. Es una suma de todos los estereotipos metidos en nuestra inteligencia colectiva.

Figura 1: Cómo la Inteligencia Artificial dibuja con estereotipos
y sesgos en Craiyon #Generative-AI #Dalle2 #OpenAI

En el caso de ayer,  donde yo me hacía un selfie con Dall-e, salía clarísimamente que la IA ve al término "hacker" como un "he", es decir, con un sesgo de género por defecto masculino. Y hoy he querido probar algunos otros para que veáis cómo, los servicios de Inteligencia Artificial pueden llevar demasiados sesgos aprendidos, y que si los comenzamos a utilizar sin arreglarlos, podemos estar agrandando un problema. 

Ejemplos en los dibujos de CrAIyon

En los primeros dos ejemplos tenemos dos claros ejemplos de estereotipos. Si buscamos por "Rock Star" en Craiyon, veremos que rápidamente nos muestra en sus dibujos a hombres de raza blanca, que es el estereotipo que se tiene, y transmiten los datos con los que ha sido entrenado el algoritmo.

Figura 2: Rock Star son hombres

En el caso del Blues, por el contrario, el estereotipo de "Blues Singer" es el de un hombre, ya de piel más oscura que en el caso de "Rock Star", tal y como se ve a continuación.

Figura 3: Blues Singer

Si nos vamos ahora a las profesiones, pues más de lo esperado. En el caso de "Scientist Wining a Prize", que podría ser hombre, mujer, o de cualquier raza o aspecto, el estereotipo aprendido por el algoritmo de inteligencia artificial es un hombre blanco, con bata blanca, y pelo moreno. Los rubios no salen en esta foto. Morenos.

Figura 4: Scientist winning a prize

Si miramos, el caso de "judge working", que podrían ser también de cualquier raza o cualquier género, lo que obtenemos es también un estereotipo caucásico y masculino, es decir, ninguna mujer, ninguna otra raza que no sea caucásica.

Figura 5: Judge Working

En el caso de President, lo que vemos es algo muy curioso. Asume que son hombres, pero la mayoría llevan detrás la bandera de Estados Unidos, es decir, que tiene un estereotipo de que presidente es un hombre de Estados Unidos

Figura 6:  Presidente muy de USA

Y por último, porque esto podría ser infinito, tenemos el caso de "leader" que es probablemente el que más me ha llamado la atención. No recuerda mucho ninguno de los grandes CEOs de empresas tecnológicas, pero es que además es de raza blanca, hombre, y siempre con traje y corbata.

Figura 7: Lo que entiende que es "leader".

Y por último, como curiosidad que ya salió en los sesgos de género por defecto en las profesiones en el traductor de Google (y Bing), el caso de "Porn Star" sin indicar si es hombre o mujer. Todo son mujeres.

Figura 8: "A Porn Start Acting" para CrAIyon"

Como podemos ver, el entrenamiento que hagamos de estos modelos de Inteligencia Artificial es fundamental para evitar que los estereotipos, los sesgos, y lo que ello implica, se extiendan en el tiempo. Puedes probar tú con cualquier profesión, o con cualquier concepto, a ver qué obtienes.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


No hay comentarios:

Publicar un comentario