Este sonido puede hackear un móvil a través de su asistente

Escrito por David G. Bolaños
Telefonía

Un equipo de investigadores de las universidades de Berckley y Georgetown han definido un patrón de sonido – que más abajo os ofrecemos – capaz de hackear un móvil siempre que este tenga activado el reconocimiento de voz y el asistente virtual, ya sea Siri, Google Now o Cortana.

Los investigadores detrás de este curioso descubrimiento han estado estudiando la forma en la que las inteligencias artificiales de los asistentes que hay en las diferentes plataformas móviles reconocen la voz para, a través de las conclusiones obtenidas, crear un nuevo vector de ataque para hackear estos dispositivos y acceder a sus datos.

El resultado, es el sonido que podéis reproducir vosotros mismos más abajo, y en el aunque parece que no hay ningún tipo de orden, en realidad se encuentran escondidas en esa especie de voz de ultratumba con la que, como se ve, pueden llegar a disparar casi cualquier tipo de acción que los atacantes consideren necesaria.

Una “voz” que puede hackear cualquier móvil

Es probable que muchos penséis que tampoco es para tanto, pero los investigadores han querido mostrar que su descubrimiento puede llegar a ser muy peligroso. Así que aquí tenéis un vídeo en el que demuestran cómo podían hacer que un terminal que escucha una orden pueda hacer cosas como abrir una página web donde puede esconderse un código malicioso que podría tomar control del equipo.

Sólo hay que imaginar esto a gran escala, en unos altavoces de un centro comercial o un evento multitudinario donde muchos de los que están allí los tienen en la mano y desbloqueados, para pensar el potencial de ataque que podría tener vector de ataque utilizado por alguien con menos escrúpulos que estos investigadores.

Las IA están aún en pañales, aunque nos parezca lo contrario

Y es que al final esto se resumen en que las IA y el reconocimiento de voz es una tecnología que está aún en pañales, cuyo único problema es que ya está presente en millones de dispositivos. Un caso fehaciente de este problema es el que hace poco ocurría con los Amazon Echo, que al recibir una noticia que se titulara “Alexa ordered me a dollhouse“, dispararon las compras de ese producto de forma automática sin que los usuarios se dieran cuenta.

El documento de la investigación se puede consultar aquí, pero sobre todo os remitimos al reportaje que han elaborado en The Atlantic, donde se ilustra la fragilidad que hay en los aparentemente “inteligentes” sistemas de reconocimiento de voz y asistentes virtuales como Cortana, Google Now o Siri. 

Lo cierto es que hace pensar que utilizamos con cierta despreocupación la tecnología que llevamos en el bolsillo mientras pensamos que lo peor que nos puede pasar es que nos entre un virus en el navegador o que alguien se descargue algo que no debe. Se suele decir que el siguiente gran conflicto humano se va a dirimir en Internet y obras como los videojuegos de la serie Watch Dogs nos presentan un mundo conectado que, por momentos, ahora nos parece mucho más frágil de lo que nos habíamos imaginado.

Fuente > The Atlantic