La asistente de voz son los más vulnerables a ser manipulados a través de un láser (Foto: Amazon)
La asistente de voz son los más vulnerables a ser manipulados a través de un láser (Foto: Amazon)

Un grupo de investigadores descubrió un nuevo riesgo de seguridad en los altavoces digitales, ya que pueden ser manipulado con un láser desde una distancia de 50 metros en lugar de voz humana.

En el pasado, Google, Apple y Amazon admitieron que escuchaban las conversaciones privadas de los usuarios a través de su altavoz inteligente. Aunque no cuenta con un dispositivo de este tipo, Facebook también reconoció que contrataron a personal externo para oír fragmentos de grabaciones enviadas por Messenger.

Ahora, los investigadores descubrieron otro peligro de tener un altavoz inteligente. Si una persona dirige un láser a un dispositivo que reacciona con comando de voz se pueden enviar órdenes como abrir un garajes o hacer una compra en línea. Wired, una revista sobre tecnología, dio a conocer la información el 4 de noviembre.

Esta vulnerabilidad afecta a todos los dispositivos que funcionan con la voz, es decir altavoces Amazon Echo, Google Home o Amazon Alexa, Portal Mini de Facebook, algunos teléfonos inteligentes y las iPad de sexta generación.

Los dispositivos que actúan con comandos de voz son susceptibles (Foto: Archivo)
Los dispositivos que actúan con comandos de voz son susceptibles (Foto: Archivo)

Fue descubierta cuando Takeshi Sugawara, investigador de seguridad cibernética, apuntó un láser de alta potencia al micrófono de su iPad y notó que en los auriculares se escuchaba un sonido. Este experimento se lo mostró a un profesor de la Universidad de Michigan, Kevin Fu, en la primavera del 2018.

Ambos se unieron a un grupo de investigadores la Universidad de Michigan y viajaron a la Universidad de Electrocuminicación de Tokio, Japón, donde perfeccionaron el procedimiento y descubrieron cómo los dispositivos eran susceptibles de manipulación por medio del láser.

A esta forma de dar órdenes a un aparato se le está dando el nombre de “comandos ligeros” y funciona a una distancia de hasta 50 metros en los altavoces inteligentes, un máximo 10 metros en iPhone y cuatro en un Android.

Por esta razón, los teléfonos serían más difíciles de hackear porque el atacante necesitaría estar cerca del dispositivo, no así para los altavoces inteligentes. Además, los asistentes como Siri sólo funcionan con el celular desbloqueado o al escuchar una voz registrada.

Los altavoces inteligentes, que son aparentemente más susceptibles, tendrían que estar cerca de la ventana, donde el láser puede pasarla fácilmente. Y aún en esos casos para desactivar sistemas de alarma o activar el arranque remoto de un vehículo se requiere de un PIN de voz para funcionar.

(Foto: Archivo)
(Foto: Archivo)

Los riesgos factibles son que el propietario del dispositivo no se dé cuenta del ataque porque utilicen un láser infrarrojo, que no se ve a simple vista, y no escuche las respuestas porque el hacker pida al altavoz que baje el volumen a cero o activar el “modo susurro”.

El descubrimiento en sí es que los micrófonos de los dispositivos que son capaces de recibir órdenes por voz interpretan la luz como un comando de sonido. Los investigadores dedicaron varios meses para que la intensidad del láser coincidiera con la frecuencia de una voz humana

Los expertos consultados por la revista Wired fueron claros, aunque alguien utilizara esta técnica para hackear un altavoz inteligente, el peligro está en los datos vinculados. Por ejemplo, el número de tarjeta bancaria.

Google y Amazon dijeron a la revista que iban a revisar la investigación, pero su prioridad es proteger a sus usuarios. Apple se negó a hacer comentarios y Facebook no respondió a tiempo para la publicación del artículo.

MÁS SOBRE ESTE TEMA