miércoles, septiembre 04, 2019

La Inteligencia Artificial ya está “al servicio” del cibercrimen para robar dinero suplantando a CEOS (cero sorpresa)

Durante la pasada RootedCON, mis compañeros Pablo González y Enrique Blanco dieron una charla en la que contaban lo que hemos estado haciendo últimamente con Inteligencia Artificial para hacer suplantación de personas. Hacer suplantación de personas con una IA que simulaba ser yo, y usar un modelo entrenado de IA para recrear la voz de personas de las que se tengan grabaciones suficientes.

Figura 1: La Inteligencia Artificial ya está “al servicio” del cibercrimen
para robar dinero suplantando a CEOS (cero sorpresa)

Os dejo una charla donde yo hablo de todos estos ataques usando Inteligencia artificial, pero tenéis el artículo de "Autoencoders, GANs y otros chicos (buenos y malos) del montón" donde se explica el proceso completo de generación de esa IA con capacidad de recrear el aspecto y la voz de un CEO (o un CDO en mi caso) a través de una llamada de teléfono o una vídeo conferencia. Además, tenéis los ejemplos de Face Swapping para suplantar personas en ataques de Fake News contra ejecutivos.


Figura 2: Big Data & AI for bad guys

Pues bien, el pasado día 30 de Agosto, el Wall Street Journal ha contado que este tipo de ataque ya se está utilizando, y que ha tenido éxito - al menos que se conozca - en una empresa del Reino Unido en la que la voz de un CEO fue reconstruida en un modelo de IA que se utilizó para solicitar a un empleado de la firma que hiciera una transferencia de 220.000 €.

Figura 3: Noticia en el Wall Street

El resultado debió de ser tan convincente, que el trabajador hizo esa transferencia y el dinero voló. Solo cuando los investigadores hicieron el análisis forense de todo lo que había pasado. Las llamadas, de dónde habían venido, cómo había sido la conversación, etcétera, concluyeron que alguien tenía la voz del CEO recreada correctamente en un modelo de IA.
Y cada día esto avanza más, en cuestión de minutos se podrán crear modelos de IA que hablen como cualquiera, y ni los mensajes de audio ni los sonidos que se oiga en una llamada de voz serán válidos, y tampoco, por supuesto, los sistemas de protección biométrica basados en voz. Harán viejas tecnologías de seguridad. Y pronto, vendrán más barreras que la IA irá superando. De este tipo de cosas es de lo que voy a hablar la semana que viene en mi conferencia en Madrid.

Saludos Malignos!

No hay comentarios:

Entrada destacada

MyPublicInbox: Perfiles destacados por categorías #MyPublicInbox @mypublicinbox1

Cuando se conceptualizó la plataforma de MyPublicInbox se pensó en un entorno que permitiera que los perfiles públicos recibieran comunica...

Entradas populares