lunes, abril 19, 2021

Los algoritmos machistas de la inteligencia artificial

Este sábado, que al final no llegué a tiempo a sacar mi artículo de "El lado del mal", os iba a dejar la referencia al artículo que escribió la periodista Rocío Mendoza y que salió en casi todas las cabeceras del grupo editorial Vocento, y tratando el tema de los algoritmos de inteligencia artificial entrenados con datos sesgados que llevan a la toma de decisiones con sesgos de género.

Figura 1: Los algoritmos machistas de la inteligencia artificial

El artículo, que tenéis online, por ejemplo en El Correo, toca muchos temas donde una mala elección de datos para el entrenamiento de los algoritmos, ha llevado a crear inteligencias artificiales con sesgos de raza o género. Por aquí hemos hablado, por ejemplo, de cómo se puede fallar y crearas algoritmos de inteligencia artificial que con datos sesgados de entrenamiento llevan a eliminar la piel oscura de las personas cuando se reconstruyen fotografías.

Figura 2: ¿Es Google Machista? Parte 1


Figura 3: ¿Es Google Machista? Parte 2

En el artículo se reconocen experimentos en los que se han detectado este tipo de sesgos de género más allá del traductor, como el experimento que se realizó con los 1.000 perfiles falsos de hombres y mujeres a los que se se ofrecían anuncios de Google de búsqueda de trabajo. Los anuncios de salarios altos se entregaban mayoritariamente a los hombres.

Figura 4: Anuncios de salarios altos más para ellos.

La explicación técnica de por qué el algoritmo había aprendido que tendría más éxito en capturar dinero para Google, basado en el Click-Through se basa en insights aprendidos por los modelos de inteligencia artificial, pero si dejamos que el modelo aprenda metiendo la variable de género, como en el ejemplo de la inteligencia artificial que reconocía a los doctores mirando a ver si eran hombres, entonces van a suceder estas cosas. 

Figura 5: El currículo de ellas penalizado por defecto

El problema, como os podéis imaginar es de la interpretabilidad del modelo. ¿Cómo ha aprendido? ¿Qué ha aprendido? ¿Es correcto lo que ha aprendido o está penalizando a una persona por su raza, género, religión o edad? Y si no lo tienes en cuenta a la hora de sanitizar los datos de entrenamiento para asegurarte de que no llevan esos sesgos, van a acabar apareciendo en el aprendizaje del modelo de inteligencia artificial.


Cualquier factor exógeno a una persona que lo penalice de saque, está mal. Y tenemos que construir tecnología que ayude a que la vida de las personas sea más igual y mejor, como ya he dicho en muchas charlas donde hablo de lo cruel que es poner una etiqueta a una persona porque un insight ha sido creado sobre ella - solo porque incrementa porcentaje de las ventas poner etiquetas a las personas, aunque sean erróneas en algunos casos -.

Figura 7: Google Maps utilizaba zancadas de referencia masculinas

También recoge el artículo algunos casos sutiles donde se mete el sesgo, como el caso de Google Maps y sus rutas en zancadas basadas en media de pasos de hombres, que aunque sea solo una curiosidad, es un claro ejemplo de qué, si no tenemos en cuenta la diversidad y los problemas con los sesgos desde el minuto cero, al final vamos a encontrarnos con estas situaciones.

Figura 8: Datos de la inteligencia artificial y diversidad

Los datos que acompañan al artículo sobre la diversidad de los creadores de inteligencia artificial son para hacernos pensar en que aún nos queda mucho camino que recorrer juntos para mejorar la diversidad en la sociedad y, por ende, en los algoritmos de inteligencia artificial. Y lo que está claro es que como no ataques los dos, entonces se entra en un círculo vicioso del que es muy difícil salir.

No hay comentarios:

Publicar un comentario