Mostrando entradas con la etiqueta Cortana. Mostrar todas las entradas
Mostrando entradas con la etiqueta Cortana. Mostrar todas las entradas

sábado, julio 27, 2024

Movistar Home Connect. Codename "Movistar Home Everywhere"

En el año 2017, cuando los SmartSpeakers comenzaban a estar en muchos sitios, en Telefónica estábamos trabajando en la idea de lanzar alguno nosotros. Pero en la visita que tuvimos ese verano a ver a nuestros partners en Estados Unidos, cambiamos de idea. Microsoft estaba lanzando Cortana, y compartieron con nosotros el insight de que lo que la gente más usaba, y principalmente la única función en aquellos momentos después de una semana era la de poner música, así que iban a hacer un altavoz con muy buena calidad.
Por otro lado, el equipo de Amazon nos dijo que el problema que tenían, y por el que la gente no utilizaba nada más que la música y poco más era porque al no haber pantalla, el descubrimiento de funciones era muy complejo, así que estaban trabajando en Amazon Show para poder educar al usuario en descubrimiento de nuevas capacidades. 

Después de aquello, compartimos esto con los equipos de innovación, y decidimos dejar de lado el proyecto del SmartSpeaker. Por otro lado, el equipo de Innovación de Dispositivos, los que nos diseñan los HGU de SmartWiFi, los Decodificadores Ultra HD, los Amplificadores WiFi, etcétera, estaban trabajando en un SmartDisplay como prueba de laboratorio. Cuando regresamos del viaje nos sentamos con ellos, y pensamos que estaría bien hacer una prueba con estos "insights", poniendo Aura, nuestro asistente digital que habíamos anunciado en el MWC del 2017.

Mezclando estas tres iniciativas de tres áreas distintas de Telefónica, lanzamos un proyecto piloto para probar este producto con usuarios, y ver si nos protegía de una des-intermediación de servicios que querían hacer todos los SmartSpeakers. Todos ellos compiten en la categoría de SmartHome, y la televisión, la WiFi, las alarmas y las comunicaciones son tres de las capas con más uso e importancia dentro de esa categoría. Y todos querían que integráramos nuestros servicios en sus plataformas y controlar nuestras capacidades. Nosotros queríamos seguir siendo relevantes en la vida de nuestros clientes, y por eso habíamos creado Aura.

Así que, creamos Movistar Home, lo anunciamos en el MWC de 2018, y comenzamos a comercializar los dispositivos que habíamos hecho para esta primera fase. Según iba vaciándose el almacén, comenzó a llegar la crisis de los semiconductores, de los chips, y a encarecerse la construcción de equipamiento, así que hicimos una curva predictiva para ver cuándo se nos acabarían los dispositivos, y cuándo tendríamos que tomar la decisión de saber si construimos la segunda versión o tomábamos una decisión de evolución distinta.
La pandemia y el cierre de las tiendas hizo que el las ventas ese año bajaran un poco, y pudiéramos tener dispositivos un año más de lo previsto, pero a finales de 2021 tuvimos que tomar la decisión de cómo lo íbamos a evolucionar el proyecto, y entonces fue cuando más caros estaban los chips, y más tiempo nos estaban dando las fábricas para entregarnos los dispositivos desde la fecha de pedido. Así que bajamos el nivel de venta para quedarnos con stock de cambios y reparaciones y comenzamos con el proyecto de migrar todo el software de Movistar Home a un app en tablets, proyecto que llamamos "Movistar Home EveryWhere".

Irte a una app tenía la ventaja de no depender de hardware, pero el inconveniente de depender de las políticas de los sistemas operativos de Apple y Android. Además, uno de los debates que nosotros habíamos tenido fue el de "batería sí o batería no", porque un dispositivo sin batería está "Always ON", mientras que uno con batería tiende a desconectarse o estar sin batería mucho tiempo. Tomamos la decisión de hacer "Movistar Home EveryWhere", y hemos estado jugando con él durante 2023, en alfas y betas privadas. Y ahora ya puedes probarlo tú si quieres, que es gratuito para todos los clientes de Telefónica.
Ah día de hoy lo puedes descargar de Google Play Store y probarlo, pero además si quieres y te animas,  puedes apuntarte al estudio de nuestra comunidad Testers para seguir mejorándolo, añadir más funcionalidades y evolucionarlo.  Ahora mismo se trata de una aplicación exclusiva para todos los clientes Movistar con línea de fibra de hogar, ya que están conectadas todas las capacidades de Movistar, y lógicamente estamos aplicando todos los aprendizajes que hemos extraído estos años con el dispositivo físico Movistar Home - que seguirá funcionando si lo tienes y evolucionando -, para seguir proporcionando experiencias exclusivas.

Por el momento, llega para tablets con sistema operativo Android con versión 10.0 o superior, y se podrá usar desde cualquier punto del hogar con tan solo conectar la tablet a la red WiFi Movistar. Esto permite que desde ya aprovechemos las tablets que tienes disponibles en casa, y usamos capacidades de Autenticación de OpenGateway y Kernel para que su puesta en funcionamiento sea muy rápida. En breve, también extenderemos la experiencia a otras plataformas.

Principales funcionalidades de Movistar Home Connect

Movistar Home Connect es la evolución de las comunicaciones del hogar, un nuevo concepto de teléfono fijo, ya que puedes recibir las llamadas del teléfono fijo del hogar en él, tener vídeo conferencias y controlar la televisión. 

Figura 4: Vídeo de la nueva aplicación para Android Movistar Home Connect

Con la aplicación de Movistar Home Connect  podrás explorar y descubrir nuevos contenidos de Movistar Plus+, interactuar por voz con la TV gracias a Aura o realizar llamadas y videollamadas con tu tablet, haciendo que la experiencia sea más intuitiva y sencilla.

Control por voz a través de Aura

Gracias al asistente virtual Aura - que está en más de 30 canales en Telefónica y gestiona más de 400 Millones de Interacciones al año -  generamos con la voz una experiencia sencilla que incentiva a que compartas tiempo de calidad con el resto de los integrantes de tu hogar. Con Movistar Home Connect  puedes interactuar con tu TV a través de Aura o pedirle recomendaciones o sugerencias de contenidos de Movistar Plus+ usando únicamente tu voz, para ello es necesario tener abierta la aplicación en la tablet en primer plano.

La experiencia del control de la televisión por voz es intuitiva y sencilla. Puedes pedir a Aura que busque o te recomiende contenido de Movistar Plus+ con tan solo decir, por ejemplo, “OK Aura, quiero ver una peli de acción”.  



En la pantalla de la app se mostrarán resultados de contenidos sugeridos y podrás pedirle que te muestre la peli que elijas en la televisión: “OK Aura, pon The Equalizer 2 en la televisión”.


Realizar llamadas y videollamadas desde tu aplicación

Con Movistar Home Connect también continuamos con nuestra propuesta de reinventar el teléfono fijo, permitiendo realizar llamadas y videollamadas desde cualquier tablet que tengas instalada la app. Para ello, cuando accedas a esta funcionalidad por primera vez y pulses sobre el icono de llamada te aparecerá una pantalla de bienvenida, en la que también se te solicitará permiso para acceder a la cámara para así poder hacer y recibir videollamadas. 

Una vez realizado el onboarding, puedes llamar tanto táctil como vocalmente diciendo "OK Aura, llamar". También puedes decidir aceptar o rechazar una llamada vocalmente diciendo “OK Aura, descuelga" u “OK Aura, ignora la llamada”. Gracias a las funcionalidades de agenda y registro de llamadas, si tienes contratado el identificador de llamadas podrás ver el número de teléfono que te llama y guardarlo directamente en la agenda.


Recuerda que con tus dispositivos Android y la funcionalidad de Google Cast puedes proyectar las videollamadas desde tu tablet a otros dispositivos compatibles, como tu televisor.  Movistar Home Connect irá presentando nuevas capacidades de forma continua. En las próximas semanas veremos cómo se puede sincronizar con los contenidos que estás viendo en Movistar Plus+ para tener una experiencia de pantalla extendida y acceder a otras aplicaciones para hacer más rica esta experiencia.

Si quires, ya puedes convertirte en uno de los primeros en descargarte y probar la versión beta de Movistar Home Connect, y descubre las diferentes opciones de sacarle el mayor partido a Aura, el asistente virtual de Movistar. Si quieres darnos feedback de nuestro nuevo servicio y ganar una invitación doble al programa de mis amigos “Ilustres Ignorantes”, únete al estudio de nuestra comunidad de Testers. Allí podrás estar con el gran Pepe Colubi y Javier Cansando. Recuerda que no necesitas ser un experto en tecnología, solo tener ganas contribuir a la creación de una mejor experiencia para todos los usuarios.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


sábado, abril 21, 2018

¿Nos escuchan por los micrófonos Google, Facebook, Apple y Microsoft? Claro que sí. Parte I

Hace unos días ha aparecido por Internet un vídeo que se ha convertido en viral, donde una persona hace una prueba que intenta demostrar cómo algunas empresas (supuestamente) nos vigilan desde Internet. En dicho video, este usuario pone el foco en concreto en Google y si nos escucha a través del ordenador, aunque no tengamos activado el asistente de audio (el icono en forma de micrófono que aparece a la derecha de la barra del buscador Google) o su asistente Google Home.

Figura 1: ¿Nos escuchan por los micrófonos Google, Facebook, Apple y Microsoft? Claro que sí.

Para ello muestra en pantalla un tema (en este caso juguetes para perros) y comprueba en varias páginas que los anuncios de AdSense  no aparece nada relacionado con lo que ha mostrado en pantalla. En mitad del video pronuncia en voz alta el tema de los juguetes de perros, y de repente aparecen varios anuncios relacionados con este tema. Aquí podéis ver la prueba al completo:


Figura 2: is Google listening?

La verdad es que el mensaje que lanza el video es muy preocupante, pero le falta un poco de rigurosidad. No se muestran en ningún momento pruebas digamos más técnicas, como por ejemplo una aplicación que sea capaz de analizar la información transmitida por el micrófono, un análisis de paquetes o cualquier otra que demuestre realmente que dicha escucha se ha realizado sin consentimiento del usuario.

Es posible que incluso esta persona hiciera dicha búsqueda en otro dispositivo (por ejemplo, un smartphone) utilizando su cuenta de Google y por lo tanto se replicara en todos los dispositivos asociados a él. De todas formas, al menos reabre un viejo debate que comenzó con el uso no autorizado de las cámaras web (webcams) y que ahora también se traslada al micrófono (aunque realmente siempre ha estado ahí, al ser este un dispositivo integrado también en las cámaras web). Y ya tuvimos un escándalo similar con las SmartTVs de Samsung que estuvieron en el ojo del huracán por ser demasiado explícitos en sus Terms & Conditions.

El tema de las escuchas por parte de estas empresas para luego ofrecerte anuncios a medida no es algo nuevo, y debido a los Cognitive Services para el Procesamiento Natural del Lenguaje de las plataformas de Artificial Intelligence de los grandes proveedores de Cloud, es algo más que posible en el mundo en el que estamos.

Figura 3: Ads, Ads, Ads

En la red hay muchas personas que corroboran este hecho, pero ninguna tiene una prueba sólida. Es más, el beneficio que puede obtener una empresa realizando este tipo de escucha y proyectando los resultados sólo para dirigir publicidad no son rentables comparados a una posible denuncia y mala imagen en caso de ser ciertas. Más bien podría ser un efecto de una teoría donde se afirma que las personas podrían estar afectadas por el fenómeno Baader-Meinhof. Pero este tipo de vídeos siguen apareciendo una y otra vez.

Hace sólo unos meses, otro usuario realizó una prueba parecida, esta vez desde un smartphone y utilizando la app de Facebook. En el siguiente vídeo podéis verla, pero de nuevo, tenemos que confiar en la palabra del usuario ya que no existen pruebas fiables:


Figura 4: is Facebook listening?


Esto no quiere decir que estas compañías las cuales ofrecen asistentes digitales como Cortana, Google Home, Alexa o Siri (Microsoft, Google, Amazon y Apple respectivamente) no graben lo que decimos y almacenen las conversaciones en sus servidores. De hecho, esto necesario para luego procesar y analizar las peticiones realizadas. En muchas empresas, los servicios de Siri fueron cortados para evitar los datos a los servidores de Apple, ya que los servicios de Procesamiento Natural del Lenguaje se produce en sus servidores.

Figura 5: Todo el NPL se produce en backend con Siri

Eso sí, sólo deberían funcionar cuando el usuario quiera activarlos, tanto desde la pantalla usando el icono de un micrófono (como es el caso de Google) o desde voz indicando alguna frase de activación como “Ok Google” o el famoso "Oye Siri" y luego se debería de borrar la información pasado un corto periodo de tiempo. Hay que destacar que el micrófono tiene que estar activado en el dispositivo todo el tiempo para poder registrar estas órdenes de activación o “despertar”, pero según ellos, esta información llamémosla “ambiental” no se procesa ni se envía, como veremos más adelante. En SeguridadApple puedes encontrar este artículo donde se habla sobre qué ocurre con esta información, en este caso Siri de Apple.

Figura 6: Proceso de activación de Siri y envío de información

Es muy difícil, por no decir imposible, saber exactamente qué información envían estos dispositivos a sus servidores centrales. Sólo podemos realizar algún tipo de suposición basándonos en algunos análisis superficiales de los paquetes enviados. Por ejemplo, en el caso de Amazon y su Amazon Echo, este utiliza cifrado TLS1.2 con validación/pinning de certificado, haciendo muy complicado realizar un ataque man-in-the-middle.

Toda la información digamos “sensible” se envía totalmente cifrada, lo que es un arma de doble filo porque por un lado es lógico para que en caso de interceptar tu red nadie pueda ver la información, pero por otro lado no sabemos qué información se está enviando.

Figura 7: Proceso de activación de Alexa (Amazon Echo) y envío de información

En el siguiente análisis de este mismo dispositivo de Amazon (con su asistente Alexa), se demuestra al menos que durante los periodos de silencio no se envía ninguna información al exterior. Para probarlo se ha monitorizado la ejecución de la siguiente secuencia de órdenes:
1. 8 segundos de silencio (sonido ambiental) 
2. Pregunta “Alexa, ¿qué hora es?” y respuesta en 6 segundos 
3. 8 segundos de silencio 
4. Pregunta “Alexa, té earl gray, caliente” y respuesta en 5 segundos 
5. 23 segundos de una conversación normal entre dos personas (evitando palabras que pudieran activar Alexa)
En la gráfica siguiente se puede comprobar que durante los periodos de sonido ambiental o de conversación sin interacción con Alexa, no se recopilan datos al menos por la red. Tampoco sabemos realmente si existe algún tipo de grabación interno en el dispositivo desde el cual se almacena primero la información y luego se envía cifrada u oculta con esteganografía (este sería otro punto que analizar, pero el código de estos dispositivos no es OpenSource):

Figura 8: Gráfica con los resultados de la prueba con Alexa

En este otro análisis muy parecido pero esta vez con Google Home se llega a la misma conclusión. Estas son las pruebas realizadas:
• 0-40 segundos, el equipo se reinicia 
• 320 segundos, “Ok Google. What´s the weather? más respuesta 
• 400 segundos, el micrófono se desactiva desde el dispositivo

• 400 – 500 segundos. Se intenta despertar el dispositivo con “Ok Google”
 
• 500 se vuelve a activar el micrófono 
• 550 segundos, “Ok Google, ¿lloverá mañana?” más respuesta 
• 650 segundos, “Ok Google…” comando de activación sin respuesta 
• 800 segundos, “Ok Google, pon algo de música” y se ejecuta Spotify 
• 850 segundos, “Ok Google. Es suficiente” y Spotify se detiene
Aquí podemos ver la gráfica obtenida donde observamos que durante los periodos de silencio no se envía ninguna información:

Figura 9: Gráfica de los resultados de la prueba con Google Home

Pero claro, estos análisis hablan de asistentes digitales que necesitan del micrófono para poder interactuar con el usuario. ¿Más preocupado? ¿Más tranquilo? No te preocupes, en la siguiente parte tendrás más para pensar sobre este asunto.

Autor: Fran Ramiíez, (@cyberhadesblog) miembro del equipo de Crazy Ideas en CDO en Telefónica, autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", y del blog Cyberhades.

sábado, noviembre 12, 2016

La Inteligencia Artificial y la Ética del Ratón

Hoy sábado me he levantado con una de esas diatribas que me acompañan a lo largo de mis días desde hace años. Pensando en cómo sería si sí, cómo sería si no sobre las cosas. Qué pasaría si y qué pasaría si no. Por supuesto, los temas sobre los que mis debates internos tienen lugar son siempre alrededor de lo que hago en mi vida y de lo que desde pequeño me interesa. El mundo de la tecnología, la ciencia ficción y quitar el término ficción a todo lo que he leído y visto en ese ámbito.

Figura 1: La Inteligencia Artificial y le Ética del Ratón

En los últimos tiempos, con la llegado de las Tecnologías Congnitivas al mundo masivo, muchas de las reflexiones que llevamos haciendo años empiezan a acercarse en el tiempo. Algo que se veía muy lejos hace años, parece que va a empezar a ser parte del día a día de nuestra vida muy pronto. Es el uso de la Inteligencia Artificial en el mundo en nuestra vida, y todas las ventajas y problemas que eso conlleva.

Y como el post de hoy solo es una perorata personal que me estaba echando para tomar una decisión sobre un tema, os voy a plantear un problema que luego si queréis los proyectamos sobre situaciones más mundanas que llevan tiempo sobre nosotros, para que podáis expresar vuestras opiniones.

HIRE: La AI que controla los RRHH

Supongamos, un suponer, que una empresa ha comenzado a utilizar tecnología de inteligencia artificial para su departamento de recursos humanos – vamos a llamarla HIRE -. En su día a día para aprender, HIRE, está recogiendo datos internos y externos de todos los puntos posibles y necesarios para tener medido correctamente la importancia del rol interna y externamente, el desempeño del trabajo de esa persona y el impacto de lo que hace en concreto cada uno de los trabajadores.

Además, está analizando Internet, para saber si los salarios están bien o mal pagados, si los roles y las funciones son las adecuadas, etcétera. Y no solo eso, sino que está pensando en las funciones que debe hacer para el futuro la empresa, los roles que serán necesarios y los que serán prescindibles.

También aprende el impacto de hacer determinadas acciones como la formación, el uso de incentivos o el valor positivo o negativo que puede tener el despido o la incorporación de alguien para desempeñar un determinado rol. HIRE entonces, continuamente estaría haciendo despidos, contrataciones, reemplazados de personas, reemplazo de funciones, cambio de incentivos, etcétera.

Al final HIRE no estaría haciendo nada más que hacer lo que se supone que hace un departamento de RRHH de una empresa que tiene la misión de maximizar el resultado económico para sus accionistas. Y lo haría eficazmente, al mismo nivel que lo podría hacer el mejor departamento de RRHH de cualquier empresa siguiendo escrupulosamente la ley del país.

Sin embargo, esto no es del todo cierto. En los departamentos de RRHH también hay personas que tienen mucha humanidad dentro de ellos, y a veces toman decisiones que a priori pueden no parecer buenas para las empresas. Por ejemplo, supongamos que HIRE fuera capaz de detectar por los patrones de comportamiento que una mujer está embarazada desde la primera semana en que lo está.

O mejor aún, pongámoslo un poco más complicado, supongamos que HIRE es capaz de predecir a partir de información en Internet que una mujer está en un periodo de su vida en el que con una probabilidad del 87 % se va a quedar embarazada en los próximos dos meses. A partir de ese momento, HIRE podría sacar un scoring que le hiciera tomar como decisión despedir a esa mujer porque podría costarle dinero a la empresa por las medidas de protección social que existen para la mujer.

INVIERTE Loves HIRE?

Analizando esto podríamos concluir que si el objetivo con el que se ha creado a HIRE fuera maximizar el beneficio de la compañía, HIRE podría despedirla. Ahora bien, ¿qué pasaría si despedir a la mujer fuera mal visto por la sociedad? Entonces eso a lo mejor podría suponer que la imagen de la compañía decayera y por lo tanto fuera mayor lo negativo que se consigue con el despido que lo positivo. Ya que podría ser que los accionistas dejaran de invertir o los clientes de contratar.

Pero… ¿Y si los accionistas utilizan también diferentes inteligencias artificiales? Pero ¿y si los inversores son también motores cognitivos? ¿Y si el mayor accionista de la empresa donde trabaja HIRE es INVIERTE, un sistema de inteligencia artificial que se guía por las decisiones que toman las empresas y ve que HIRE no maximiza el rendimiento económico por la imagen pública y deja de invertir?

Si seguimos dándole vueltas a esto, llegamos al único punto que puede poner sentido a esto. Al único lugar donde algo o alguien puede tomar una decisión contraría a sus beneficios en base a los valores éticos con los que ha sido “programado”: El ser humano. Gracias a que no somos infalibles, los seres humanos tomamos decisiones que van en contra de nosotros mismos, llevadas por las emociones, los sentimientos y el motor irracional que es tan racional dentro de nosotros.

Volviendo al caso de HIRE y el departamento de recursos humanos, en el mundo donde nos movemos hoy, hay empresas con departamentos de recursos humanos que son un terror dentro de la compañía, pero hay otras en las que los departamentos de recursos humanos son cuidadosos, detallistas con las personas y preocupados por su bienestar. Algunos departamentos de recursos humanos, sin ser HIRE, hubieran despedido a la mujer, otros, la hubieran protegido.

Eso, en el mundo de las empresas lo suelen llamar la “Cultura” de esta empresa, que no es más que los valores que desde su dirección se transmiten hacia los empleados. Qué cosas se premian y qué cosas se castigan dentro de la compañía. ¿Es una empresa con valores sociales para las personas o solo preocupada por el beneficio? ¿Es una empresa que solo se preocupa por la imagen pública pero luego no tiene los valores que pretende o es una empresa que es capaz de cuidar de sus empleados como forma de trabajo? ¿Es mejor una Cultura de Empresa u otra para el mundo de los negocios?

¿Ratones o Humanos?

Los seres humanos somos capaces de consumir cosas nocivas para nosotros, hacer cosas que nos harán daño sin sentido, hacer daño a otros seres humanos, e incluso dar la vida por otras personas sin esperar nada a cambio, solo por un acto altruista de amor o desinterés. Somos capaces de hacer lo peor y lo mejor.


Figura 2: Evolución de la inteligencia artificial

Ahora que nos estamos aproximando a la época en la que los sistemas de Inteligencia Artificial están alcanzando la capacidad de raciocinio de un ratón, estamos aún a tiempo de decidir con qué valores queremos crearlos. ¿Se deben inculcar desde ya qué se puede o no se puede hacer? ¿Debería haber un control para la creación de sistemas HIRE o INVIERTE que enfocaran el comportamiento de las empresas hacia una dirección u otra? ¿Deberíamos dejar que crecieran libremente y tuvieran libre albedrío en sus decisiones?

En una película del año 1980 llamada Sartuno 3, una de las que más miedo me hizo pasar durante mi niñez por culpa de Héctor, la inteligencia artificial del robot se creaba a partir de la mente de uno de los protagonistas con problemas emocionales, lo que llevaba al terror en la base espacial. El hombre es capaz de hacer lo mejor y lo peor, y está claro que no todos los seres humanos tenemos los mismos valores, lo que podría hacer que aparecieran inteligencias artificiales en nuestro mundo con muy diferentes objetivos.


Figura 3: Saturno 3 Trailer

Recuerdo que la primera vez que monté en el Google Car con los ingenieros de Google y hablamos de la inteligencia artificial que llevaba dentro – hace ya varios años – pregunté por la decisión que tomaría el coche ante un “Accidente Inevitable”. Si el coche es capaz de predecir que un accidente es inevitable, por culpa de que se ha colado un peatón que antes no había sido detectado por el vehículo o porque viene un vehículo descontrolado a una velocidad muy grande que no da tiempo al vehículo a reaccionar, ¿tomaría alguna decisión para primar salvar una vida u otra? Seguro que si has llegado hasta este punto, ya debería estar en tu cabeza Isaac Asimov y sus famosas leyes de la robótica, que tanto debate han generado entre los lectores.

¿Debemos empezar ya a pensar en si queremos poner límites al crecimiento de estos nuevos seres artificiales y su incorporación a la toma de decisiones en la sociedad o no? ¿Metemos los sistemas de Inteligencia Artificial a tomar decisiones sobre a quién hay que atender antes o no en un hospital? ¿Sobre qué debe priorizar la administración pública? ¿Sobre quién o cuando debe ser despedido alguien? ¿Dejamos a los sistemas cognitivos con la capacidad de aprendizaje de un ratón que aprendan y tomen todo tipo de decisiones?

Saludos Malignos!

domingo, noviembre 06, 2016

Cómo usar Cortana en Español de Windows 10 desde Android

Como muchos sabréis ya esta disponible la Apk de Cortana para Android - el asistente virtual de Microsoft que viene con Windows 10 - con un pequeño inconveniente para algunos, y es que de momento, sólo esta disponible en inglés para Android mientras que en Windows está ya en Español. Mediante la presente entrada y con el método que veras a continuación ya puedes probar Cortana desde Android en Español usando remotamente la versión de tu Windows y configurar los comandos de voz a tu gusto y necesidades. o si lo prefieres,  puedes crearlos tu mismo desde cero y renombrar algunos de los existentes por alguna frase que te resulten mas fáciles de recordar,

Figura 1: Cómo usar Cortana en Español de Windows 10 desde un Android

Si eres de los que últimamente ha estado jugando con Cortana como yo en Windows 10, habrás podido observar que no trae implementados algunos comandos de voz tan básicos y de un uso tan cotidiano como lo son: reiniciar, apagar, suspender, hibernar, cerrar sesión o cambiar de usuario. Los accesos directos/comandos de voz deberas crearlos en el escritorio. ¿Por qué? porque en el directorio de anclaje solo se te permite crear una nueva carpeta, una vez creados ya puedes proceder a anclarlos tal y como se muestra en el siguiente vídeo:

Figura 2: Cómo crear nuevos comandos de voz para Cortana en Windows 10

Ahora vamos a la segunda parte de como controlar la versión de Cortana en Español que viene en Windows 10 desde tú Android , para lo que hay que hacer un poco más de trabajo. Para ello tendrás que hacer uso de dos aplicaciones que puedes descargar directamente desde Google  Play de forma gratuita Wo Mic (Micrófono Wireless) y TouchRemote PC Software (Control Remoto) en mi caso. Los enlaces de descarga de estos programas son:

Wo Mic
- Wo Mic.apk
- Wo Mic Cliente.exe
- Wo Mic Controlador.exe
TouchRemote PC
TouchRemote PC Software.apk
- TouchRemote PC Cliente.exe 
Para que ambas aplicaciones funcionen correctamente, lo primero es instalar el cliente en tu Windows de TouchRemotePC y para Wo Mic que hay que instalar el cliente, el controlador y abrir un par de puertos en el router.
"...El controlador es el encargado de simular un dispositivo de audio virtual, antes de proceder con su instalación asegúrate de estar conectado a internet, de lo contrario la instalación fallara..."
Cuando le ordenamos a Cortana que haga algo desde Android o a través de el micrófono interno del PC, siempre se abre una ventana emergente en forma de menú con la información solicitada y no siempre se cierra automaticamente. Por ejemplo, cuando se le pide que muestre la predicción del tiempo. De ahí el que sea necesario recurrir a TouchRemote PC.

Pero aún más, ¿podríamos controla una persona muda o sordomuda controlar a Cortana desde Android con comandos de voz en Español o en cualquier otro idioma? Afortunadamente, la respuesta es sí. Y para ello simplemente tienes que crear una lista de archivos de audio con las distintas ordenes/comandos de voz y pasarlos a tu dispositivo como se muestra en el siguiente vídeo;

Figura 3: Cómo controlar a Cortana desde Android en Español

Si te estabas preguntando, cómo lo hago o hace la persona si es muda, queda perfectamente aclarado en el segundo vídeo y lo mejor de todo, es que lo puedes hacer tu mismo. Para ellos solo he utilizado Loquendo, que  no es mas que un sintetizador de voz que te permitirá escribir cualquier texto legible en español u otros idiomas, y el programa lo lee por ti con voces que bien configuradas pueden llegar a aproximarse bastante a la realidad.

Espero que sea de tu agrado de utilidad y te diviertas con Cortana. Si quieres puedes compartir tus comandos de voz e ideas o dudas al respecto en los comentarios, a ver si entre todos conseguimos ampliar un poco mas "los limites de Cortana".


Figura 4: Controlando Siri remotamente con señales RF

Por último, hay que recordar que si dejas activado Cortana en tu equipo, puede ser que alguien más le hable y pueda hacer cosas en tu equipo. Podría llegar a ¿controlarse Cortana desde un vídeo de Youtube? o ¿Podría hablarle remotamente un hacker como vimos que se podía hacer con Siri usando señales de Radio Frecuencia?

Saludos,

Autor: Jonathan Novel (Inseguro y Navegando)

miércoles, febrero 11, 2015

Tu SmartTV de Samsung te escucha igual que tus gadgets

Ayer la red se revolucionó con la política de privacidad y los términos del servicio de las SmartTV de Samsung. En ellas se explica que, cuando está activado el modo de reconocimiento de comandos de voz, la tele puede estar escuchando todo lo que dices y enviarlo a los servidores de Samsung para procesarlo, pudiendo esto acabar en manos de terceros para procesar los comandos, la voz o simplemente para depurar y mejorar el servicio. Tu SmartTV te escucha, muy atentamente.

Figura 1: Tu SmartTV de Samsung te escucha igual que el resto de tus gadgets

Al leer el texto, me ha parecido un detalle por parte de Samsung el ser tan brutalmente honesto, ya que esto que dice aquí es lo que pasa con otros servicios similares, a los que la opinión pública no ha prestado tanta atención, pero que están funcionando de forma parecida. Lo que dice exactamente ahora el texto de Samsung es ligeramente distinto a lo que decía antes, que era esto que se puede leer abajo:

Figura 2: Sobre el servicio de reconocimiento de voz

Por supuesto, cuando ha salido esta noticia todo el mundo se ha acordado del incidente con las teles Smart TV de LG, de las que vimos que transmitían información de canales y de archivos multimedia que se transmitía. Algo que ha llevado a ver las Smart TV como algo a esto.

Figura 3: No Lusers 178: "Una Smart TV muy Smart"

Pero no son las únicas que hacen esto, ya que el procesamiento de comandos de voz es realizado en servidores en Internet por muchos otros sistemas populares y conocidos. Aquí van algunos ejemplos.

Apple y Siri también te escuchan

Cambiemos de tercio, y dejemos el servicio de "Hello Samsung" para pasar a otros casos como el servicio Siri en los terminales iPhone o iPad, donde toda la voz es procesada en los servidores de backend de Apple, quedando almacenada para depuración del servicio. Gracias a este procesamiento en cloud es posible usar el servicio Siri de reconocimiento de voz sin tener que entrenar el reconocimiento de voz como había que hacer antes. Yo grabé un pequeño vídeo explicando esto.

Figura 4: Reconocimiento de voz en Siri

Esto llevó a que IBM, por ejemplo, bloqueara el protocolo de Siri en sus redes y así evitar filtraciones a Apple de sus conversaciones o a cualquiera que encontrase un bug en el protocolo y fuera capaz de descifrarlo. No solo esto captura Apple de tu voz, sino que además reconoció que recupera las pulsaciones de tu terminal con el servicio de Carrier IQ para poder depurar cualquier fallo, lo que generó un auténtico escándalo al poder llevarse los datos.

Google Glass

Supongo que todos habéis visto funcionar las Google Glass y su famoso "Ok Glass", donde se activa el reconocimiento de comandos de voz en las gafas. ¿Alguien piensa que las gafas de Google están procesando toda la voz en local? ¿Alguien piensa que solo se envían a Google los mensajes a partir de OK Glass?

Figura 5: Comandos de Google Glass

De hecho, el problema con los comandos de voz, como muchas veces hemos hablado, es que nos han podido hacer una huella biométrica de nuestra voz y saber si somos nosotros o no los que hablamos por un determinado dispositivo. En el futuro, el haber entregado tanta voz a tantas empresas quizá haga que compremos un nuevo iPhone o Android y digamos: "Soy yo", para que automáticamente vengan todos nuestros comandos.

Microsoft Cortana o XBOX

Los sistemas con reconocimiento de comandos de voz, que te están escuchando constantemente, son muchos. En el caso de Siri hay que dar un botón, o en el de Cortana, pero en otros como XBOX basta con decir eso de "XBOX activar Reproductor de DVD", y listo. En la política de privacidad de XBOX de otra forma, dice más o menos lo mismo.

Figura 6: XBOX Privacy Policy

Al final, si os paráis a pensar en cómo funcionan todos esos sistemas, llegaréis a que el procesamiento de todos los mensajes de voz se hace en la nube, y por tanto... pueden llevarse palabras que no os gustaría que nadie más conociera.

Saludos Malignos!

Entrada destacada

+300 referencias a papers, posts y talks de Hacking & Security con Inteligencia Artificial

Hace un mes comencé a recuperar en un post mi interés en los últimos años, donde he publicado muchos artículos en este blog , y he dejado mu...

Entradas populares