"Se puede hackear Alexar, Google Home y Siri con un laser" [Paper]
Un grupo de investigadores de la Universidad de Electrocomunicaciones de Tokio y la Universidad de Michigan descubrió que se pueden controlar los parlantes inteligentes con un láser incluso a más de 105 metros de distancia y poder hackear cualquier sistema al que el dispositivo esté conectado.
Los investigadores involucrados fueron Takeshi Sugawara de la Universidad de Electrocomunicaciones de Japón y Kevin Fu, Daniel Genkin, Sara Rampazzi y Benjamin Cyr de la Universidad de Michigan, quienes el lunes publicaron sus hallazgos en el paper "Laser-Based Audio Injection on Voice-Controllable Systems". Genkin también fue uno de los investigadores responsables de descubrir dos fallas de seguridad importantes, conocidas como Meltdown y Spectre, en los microprocesadores Intel.
Los expertos descubrieron que podían manejar dispositivos como el Asistente de Google, Alexa o Siri apuntando un láser al micrófono del altavoz para realizar acciones como encender o apagar las luces, abrir puertas e incluso encender un coche. Estas acciones se harían mediante órdenes silenciosas, a través de la luz.
"Esto abre una clase completamente nueva de vulnerabilidades. Es difícil saber a cuántos dispositivos afecta ya que es un problema muy básico", declaró a The New York Times Kevin Fu, profesor de la Universidad de Michigan.
Descubrieron que el micrófono de los altavoces inteligentes responde a la luz de láser como si fuera sonido, concretamente, por una pequeña pieza llamada diafragma que se mueve cuando recibe un sonido. Encontraron que mediante el láser podían emular el movimiento del sonido y hacer que el sistema actuara como si hubiese recibido una orden. En sus pruebas, consiguieron replicarlo incluso a más de 105 metros de distancia.
Otro de los investigadores, el profesor Daniel Genkin, dio una serie de pautas para evitar que ataquen a nuestro dispositivo. Así, si se tiene un parlante inteligente es mejor mantenerlo alejado de la vista de las personas que están en el exterior. Además, desaconseja darle al equipo permiso y acceso a aquellas acciones que no nos gustaría que lleguen a manos de extraños.
Este no es el primer descubrimiento de una vulnerabilidad sorprendente en este tipo de asistentes digitales. Investigadores en China y Estados Unidos han demostrado que pueden enviar comandos ocultos que son indetectables para el oído humano.
Fuente: NYT
Los investigadores involucrados fueron Takeshi Sugawara de la Universidad de Electrocomunicaciones de Japón y Kevin Fu, Daniel Genkin, Sara Rampazzi y Benjamin Cyr de la Universidad de Michigan, quienes el lunes publicaron sus hallazgos en el paper "Laser-Based Audio Injection on Voice-Controllable Systems". Genkin también fue uno de los investigadores responsables de descubrir dos fallas de seguridad importantes, conocidas como Meltdown y Spectre, en los microprocesadores Intel.
Los expertos descubrieron que podían manejar dispositivos como el Asistente de Google, Alexa o Siri apuntando un láser al micrófono del altavoz para realizar acciones como encender o apagar las luces, abrir puertas e incluso encender un coche. Estas acciones se harían mediante órdenes silenciosas, a través de la luz.
"Esto abre una clase completamente nueva de vulnerabilidades. Es difícil saber a cuántos dispositivos afecta ya que es un problema muy básico", declaró a The New York Times Kevin Fu, profesor de la Universidad de Michigan.
Descubrieron que el micrófono de los altavoces inteligentes responde a la luz de láser como si fuera sonido, concretamente, por una pequeña pieza llamada diafragma que se mueve cuando recibe un sonido. Encontraron que mediante el láser podían emular el movimiento del sonido y hacer que el sistema actuara como si hubiese recibido una orden. En sus pruebas, consiguieron replicarlo incluso a más de 105 metros de distancia.
<
Para solucionar este problema, los investigadores afirman que se tienen que rediseñar los micrófonos. En su estudio, recogen una posibilidad, mediante el empleo de varios micrófonos en lugar de uno para recoger el sonido, ya que un láser afecta solo a un micrófono. También sugieren reducir la cantidad de luz que recibe el diafragma mediante materiales opacos.Otro de los investigadores, el profesor Daniel Genkin, dio una serie de pautas para evitar que ataquen a nuestro dispositivo. Así, si se tiene un parlante inteligente es mejor mantenerlo alejado de la vista de las personas que están en el exterior. Además, desaconseja darle al equipo permiso y acceso a aquellas acciones que no nos gustaría que lleguen a manos de extraños.
Este no es el primer descubrimiento de una vulnerabilidad sorprendente en este tipo de asistentes digitales. Investigadores en China y Estados Unidos han demostrado que pueden enviar comandos ocultos que son indetectables para el oído humano.
Fuente: NYT
0 Comments:
Publicar un comentario
Gracias por dejar un comentario en Segu-Info.
Gracias por comentar!