Los asistentes personales activados por voz han sido un revolucionario paso para realizar tareas sin usar teclado o pantallas táctiles. De todo lo que se había conocido hasta el momento nunca se mencionó el hecho que podían ser hackeados. Un reciente estudio pudo hackear a Siri y Alexa utilizando la técnica del Dolphin Attack. ¿Hasta dónde podemos confiar en los asistentes inteligentes? ¿Su seguridad es tan frágil como para preocuparnos?
Para poder utilizar tu asistente personal activado por voz es necesario que este siempre en modo escucha, las cornetas están siempre recibiendo información, claro en el momento que se asemeje a un comando, activa la función indicada.
Teniendo esta idea en mente científicos chinos específicamente de la universidad Zhejiang decidieron crear una técnica (Dolphin Attack) para afectar a los principales asistentes personales Alexa y Siri. ¿Cómo lograron vulnerar a estos ayudantes de voz inteligentes?
¿Qué hicieron los investigadores para aplicar la técnica del Dolphin Attack?
Básicamente se concentraron en trabajar con frecuencias de sonido bajas (ultrasonido) parecidas a las que utilizan los delfines. Estas vibraciones son inaudibles para el ser humano pero no para los asistentes inteligentes.
Cuando realizaron la prueba los científicos chinos configuraron comandos de voz con ultrasonido y para su sorpresa Siri y Alexa quedaron a merced de las órdenes de la persona que aplicaba el Dolphin Attack.
La prueba la realizaron con varios dispositivos y a distintas distancias. Todos fueron vulnerados. Lo increíble de este tipo de ataque es que el usuario de Siri o Alexa ni si quiera se da por enterado de lo que sucede con su dispositivo.
Los ataques realizados con el Dolphin Attack variaron desde aplicar simples comandos, acceder a sitios webs, realizar llamadas e incluso tener acceso a dispositivos o accesos en hogares que utilizan tecnología.
Lo peligroso de todo esto que al ser tan vulnerables los asistentes inteligentes corres el riesgo de estar siempre bajo amenaza de los hackers que conocen bien cómo usar estar vulnerabilidades de Siri y Alexa.
La única solución viable hasta el momento es no permitir que el asistente este activo porque no se tiene ningún tipo de solución por parte de las empresas que distribuyen este tipo de software inteligente activos por la voz.
¿Qué solución se empleara para que Siri y Alexa no sean vulnerables a los comandos hechos con ultrasonido?