jueves, noviembre 01, 2018

Los Principios de Telefónica con la Inteligencia Artificial

Desde que comenzamos a hablar de Aura y de Inteligencia Artificial que tenemos en todos nuestros Internal Use Cases de la 4ª Plataforma hablamos de poner control a las acciones que pudiera tomar una AI para con la vida de nuestros clientes. No es algo nuevo en términos de comunicación que en Telefónica nos ha preocupado esto desde el principio. Queríamos poner controles de acuerdos con nuestros principios de actuación.

Figura 1: Los Principios de Telefónica con la Inteligencia Artificial

Nuestro compromiso con hacer tecnología centrada en mirar siempre por el bien de los usuarios que la utilicen es algo en lo que hemos sido muy activos en todos nuestros foros. Desde nuestro Manifiesto Digital presentado por nuestro Secretario General Don Pablo de Carvajal, hasta el compromiso que hicimos en el Cybersecurity Tech Accord con otros líderes en la construcción de tecnología para pensar siempre en la privacidad de nuestros clientes.


Figura 3: Presentación de nuestro Manifiesto por un nuevo Pacto Digital

Pero queríamos dar un paso más, y nuestros compañeros desde la unidad de Responsabilidad Social Corporativa, liderados por Elena Valderrabano, se han encargado de abanderar y conseguir que la compañía plasmara en un documento nuestros principios en el uso de la IA, que hemos resumido en cinco puntos, tal y como podéis ver en la infografía que tienes publicada en SlideShare.

Al final recogen cosas que todos nosotros hemos dicho en muchas conferencias.  Cinco puntos que para nosotros están siempre presentes en el diseño de la tecnología:
1.- Algoritmos Justos: Hacer un algoritmo con sesgo puede ser dañino a las personas, y por eso hay que preocuparse de eso desde su concepción. Ya os expliqué en el artículo de "La Inteligencia Artificial y la ética del ratón" un caso con INVIERTE y HIRE en el que el sesgo o la discriminación, o simplemente la no aplicación de nuestros derechos, puede aparecer si no prestas atención al marco de construcción. 
Figura 5: IA con algoritmos sin sesgos ni discriminación
2.- Transparente y explicable: Desde la primera concepción de AURA y la 4ª Plataforma hablamos de eso. De cómo los datos que se utilizan para que funcionen los algoritmos no son siempre explicados de forma correcta. De que había que dejar claro qué datos se usan y de que AURA es una IA y no simular ser una persona sin avisar a los clientes, que nos preocupa mucho el "Uncanny Valley", como os expliqué en el artículo de "LA IA que no quería morir, que quería matar y que no sabía amar".
Figura 6: IA Transparente y explicable
Del uso de los datos y de la explicación de cómo se usaban hablamos en la presentación de AURA cuando hablamos de los ejemplos de Discovery al final de la charla. Por eso, la implementación de GDRP y el tener un Time-Line y un sistema PIM (Personal Information Management) estuvieron desde el día uno en el diseño.
Figura 7: Explicación de los datos usados en un caso de uso de AURA
3.- Human Centric: Nuestra visión es que la tecnología debe hacer mejor la vida de las personas y no al contrario. Por eso estamos usando IA para hacer que la vida sea mejor. Que los servicios que disfrute sean mejores. Que sea más eficiente. Que sea más rápido. Que sea más útil.
Figura 8: IA con las personas como prioridad
En definitiva, los casos de uso de AURA los definimos en "Simplificar la vida", en "Enriquecer la vida de las personas", en "Darle más control sobre sus datos y servicios" y en ayudarles a "Descubrir nuevas posibilidades". Desde el día uno en que concebimos AURA lo hicimos así.
Figura 9 : Ejemplo del roadmap inicial de los casos de uso de AURA
Es curioso, porque para nosotros es muy normal este argot, y tenemos incluso camisetas con los logos de esos casos de uso. Una camiseta negra con un ojo amarillo es "Discover", y una camiseta roja con un diamante es el poder de "Enrich". Mucha gente me pregunta qué significan esas camisetas. Pues son camisetas de poderes de AURA.

4.- Privacidad: Algo que desde el primer momento es clave en la visión de la 4ª Plataforma y/o Aura o Movistar Home. Y por supuesto ponemos cuidado en todas las fases de la construcción de la tecnología.
Figura 11: IA construida con principios de privacidad y seguridad
Además, en todo momento tenemos claro que debemos darle el control de los datos a los usuarios, algo de lo que hemos hablamos muchas veces.

Figura 12: Nuestra visión con los datos
5.- Verificación de cadena: Crear hoy en día toda la tecnología solo es imposible. Las empresas tienen que colaborar y utilizar las sistemas integrados. Cuando nosotros nos integramos con un sistema que usa IA, al igual que hacemos con otros factores de la cadena de seguridad, exigimos los mismos principios al uso de IA.
Figura 12+1: Integrados con terceros que tengan los principios de IA compatibles a los nuestros
Además, la integración de sistemas de terceros puede dar resultados únicos, como es el caso de las integraciones que hacemos con UNICEF para usar los datos de las redes y predecir catástrofes o evolución de plagas, así como poder planificar el despliegue de material de emergencia.
El compromiso de una compañía de forma pública con unos principios como estos siempre es un ejercicio arduo y precioso que marca la directriz de trabajo de muchos profesionales en la construcción de tecnología. Marca la visión sobre la que trabajamos y construimos nuestro futuro. Y siempre es una buena noticia ver que están alineados con la visión personal que tenemos muchas personas.

Saludos Malignos!

No hay comentarios:

Entrada destacada

Seis recomendaciones personales de libros de @0xWord para disfrutar y aprender

Este verano pude disfrutar de la lectura de un libro que me encantó. El libro de Factfulness que me había regalado mi compañera Beatriz Ce...

Entradas populares