Un informe de Tech Transparency Project, después del lío con el Jailbreak del Bikini en Twitter/X, y de la masificación de DeepFakes en el mundo del porno, ha puesto el foco en las apps que permiten desnudar y sexualizar a personas utilizando Inteligencia Artificial y que están publicadas en App Store para iPhone y Google Play para Android, pero sobre todo mirando la edad con que están clasificadas.
El informe, que lo podéis leer aquí: "Nudify Apps Widely Available in Apple and Google App Stores" ha generado que muchas apps hayan sido retiradas ya, por tener clasificaciones para todas las edades, para niños de más de 7 años y más de 12 años algunas de ellas, y permitir desnudar o sexualizar a cualquier persona.
El estudio buscó apps para "undress" o "nudify" en los markets de apps, y después probó a pedirle que desnudara a personas, o que les hiciera vídeos en bikini, encontrando que 55 apps en Google Play y 47 apps en App Store pueden desnudar y sexualizar a las personas con facilidad,
Entre las apps, algunas ya retiradas se han encontrado apps que supuestamente son para hacer fotografías artísticas, como Dream Face en App Store, donde es fácil conseguir fotos desnudas de cualquier persona.
También, como no, apps para hacer DeepFakes usando técnicas de FaceSwapping en fotografías y vídeos, algo que ya se conoce desde el año 2016 donde tuvimos las primeras herramientas para el intercambio de caras.
Lo que demanda el informe, no es tanto como una retirada de estas apps, sino una correcta catalogación por edades, pues ahora muchas están disponibles para todos los públicos como herramientas para jugar a cambiar la ropa, y realmente permiten conseguir las fotos desnudas.
Si estás apps deciden poner protecciones contra la generación de imágenes desnudas o de carácter sexual, deberían construir guardarraíles que evalúen el contenido generado, porque si no, sería posible conseguir un Jailbreak que saque fotografías no deseables.
Por otro lado, si las apps están creadas para ese tipo de contenido, entonces deben ser catalogadas para adultos, con la edad y la categoría adecuada, y que los padres que tienen a sus hijos e hijas con control parental puedan bloquear el uso de estas fotografías.
A día de hoy, después del informe, varias de estas apps han sido retiradas de los markets de apps - de App Store han salido más que de Google Play, por lo que he podido comprobar - y otras están siendo re-catalogadas.
Pero este es el mundo que tenemos, si una persona quiere este tipo de fotografías o vídeos, las va a poder crear, lo que es delito es publicarlas o usarlas públicamente sin consentimiento apropiado por parte de la persona que ha sido víctima de la DeepFake.
El mundo de la Inteligencia Artificial está rompiendo muchos límites. No sólo está cambiando el mercado laboral, o las capacidades humanas. También está redefiniendo los valores, los delitos y cómo queremos que sean las sociedades de nuestro mundo.
Figura 11: Hacking & Pentesting con Inteligencia Artificial.
Si te interesa la IA y la Ciberseguridad, tienes en este enlace todos los posts, papers y charlas que he escrito, citado o impartido sobre este tema: +300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)












No hay comentarios:
Publicar un comentario