Comparte en:

Un equipo de investigadores de ciberseguridad ha descubierto una técnica inteligente, para inyectar de forma remota comandos inaudibles e invisibles en dispositivos controlados por voz.

Todo lo anterior con solo apuntar un láser al dispositivo objetivo, en lugar de usar palabras habladas.

Llamado ‘Light Commands‘, el truco se basa en una vulnerabilidad en los micrófonos MEMS integrados en sistemas populares controlados por voz.

Estos micrófonos son ampliamente utilizados y responden involuntariamente a la luz, como si fuese sonido.

Según los experimentos realizados por un equipo de investigadores de las universidades de Japón y Michigan, un atacante remoto que se encuentre a una distancia de varios metros de un dispositivo, puede disparar el ataque de manera encubierta.

Esto lo lograría simplemente modulando la amplitud de la luz láser para producir una onda de presión acústica.

“Al modular una señal eléctrica en la intensidad de un haz de luz, los atacantes pueden engañar a los micrófonos para que produzcan señales eléctricas, como si estuvieran recibiendo audio genuino”, afirman los investigadores en su documento [PDF].

¿Cómo funciona?

¿No suena esto espeluznante? Ahora debes leer lo siguiente …

Los asistentes de voz inteligentes en tus teléfonos, tabletas y otros dispositivos inteligentes, como Google Home y Nest Cam IQ, Amazon Alexa y Echo, Portal de Facebook, dispositivos Apple con Siri, son todos vulnerables a este nuevo ataque de inyección de señal basado en luz.

“Como tal, cualquier sistema que use micrófonos MEMS y actúe sobre estos datos sin la confirmación adicional del usuario podría ser vulnerable”, afirman los investigadores.

Dado que la técnica finalmente permite a los atacantes inyectar comandos como un usuario legítimo, el impacto de dicho ataque se puede evaluar en función del nivel de acceso que tienen tus asistentes de voz, comparado con otros dispositivos o servicios conectados.

Por lo tanto, con este ataque, los ciberdelincuentes también pueden secuestrar cualquier sistema inteligente digital, conectado a los asistentes controlados por voz.

Por ejemplo:

  • Controlar los interruptores inteligentes del hogar,
  • Abrir puertas de garaje inteligentes,
  • Hacer compras en línea,
  • Desbloquear y arrancar ciertos vehículos de forma remota,
  • Abrir cerraduras inteligentes forzando sigilosamente el número PIN del usuario.

Demostración

Como se muestra en la demostración de video a continuación:

En uno de sus experimentos, los investigadores simplemente inyectaron el comando “OK Google, abre la puerta del garaje” a un Google Home, disparando un rayo láser en Google Home que estaba conectado a él y abrieron con éxito un garaje.

En un segundo experimento, los investigadores emitieron con éxito el mismo comando, pero esta vez desde un edificio separado, a unos 75 metros del dispositivo de Google Home, a través de una ventana de vidrio.

Además de los dispositivos de mayor alcance, los investigadores también pudieron probar sus ataques contra una variedad de dispositivos de teléfonos inteligentes que usan asistentes de voz.

Entre los dispositivos probados están incluidos iPhone XR, Samsung Galaxy S9 y Google Pixel 2, pero solo funcionan a distancias cortas.

El alcance máximo para este ataque depende de la potencia del láser, la intensidad de la luz y, por supuesto, tus capacidades de hacking.

Además de esto, las barreras físicas (por ejemplo, ventanas) y la absorción de ondas ultrasónicas en el aire pueden reducir aún más el alcance del ataque.

Además, en los casos en que el reconocimiento de voz está habilitado, los atacantes pueden vencer la función de autenticación del hablante.

Lo pueden hacer si logran crear una grabación de los comandos de voz deseados, a partir de las palabras relevantes pronunciadas por el propietario del dispositivo.

Según los investigadores, estos ataques se pueden montar “fácil y económicamente”, utilizando un puntero láser simple (de menos de $20), un controlador láser ($339) y un amplificador de sonido ($28).

Para su configuración, también usaron un teleobjetivo ($199.95) para enfocar el láser, para ataques de largo alcance.

¿Cómo puedes protegerte contra esta vulnerabilidad?

Los fabricantes de software deberían ofrecer a los usuarios agregar una capa adicional de autenticación, antes de procesar comandos para mitigar los ataques maliciosos.

Por ahora, la solución mejor y común es mantener la línea de visión de tus dispositivos de asistente de voz bloqueada físicamente, desde el exterior y evitar darle acceso a cosas a las que no deseas que otra persona acceda.

El equipo de investigadores, Takeshi Sugawara de la Universidad de Electrocomunicación de Japón y el señor Fu, Daniel Genkin, Sara Rampazzi y Benjamin Cyr de la Universidad de Michigan, también publicaron sus hallazgos en un documento [PDF] el lunes.

Genkin también fue uno de los investigadores que descubrió dos vulnerabilidades de gran impacto en microprocesadores, conocidas como Meltdown y Spectre, el año pasado.




0 Comments

Deja un comentario