Como sacado de una película de ciencia ficción, el voice hacking hace posible que nuestros asistentes virtuales dean la quinta columna de los ciberdelincuentes.
¿Cambia de color o el tono de voz de Alexa o Siri cuando han sido hackeados? Me temo que no. Salvo que usted esté en un episodio de The X Files o algo parecido. Ojalá.
Sería más fácil si hubiese un cambio físico o de “conducta”. Pero no es así.
Lo que sí es cierto es que los ciberdelincuentes han descubierto que pueden crear falsas identidades a través de los asistentes virtuales y, por tanto, entrar en su ecosistema personal.
Siempre se habló de los riesgos de ciberseguridad que suponía la IoT para empresas y usuarios. Es, justo de eso, de lo que estamos hablando.
Y es que estos asistentes virtuales de voz y dispositivos IoT como:
- monitores de salud
- autos inteligentes
- dispositivos de seguridad y demás
Todos ellos parecen solucionar la vida cotidiana pero, al mismo, pueden ser puertas de entrada para ciberdelincuentes.
Según datos compartidos en el CES 2020 y recaudados por la firma Digital Trends, más de 500 millones de personas usan el Asistente de Google a diario.
La cifra demuestra que la popularidad de los asistentes inteligentes continúa creciendo pero al mismo tiempo una nueva forma de ataque cibernético conocida como “voice hacking” podría estar en aumento.
Millones de puertas abiertas
Miguel Rodríguez, Director de Ciberseguridad de Megatech explicó que hacking voice se lleva a cabo mediante el uso de tecnologías de voz y audio para manipular la identidad de una persona y engañar a los destinatarios de la comunicación.
“El voice hacking se basa en la manipulación de la voz y el audio para crear una falsa identidad. Un hacker puede grabar la voz de una persona sin su consentimiento, utilizando esa grabación para crear mensajes falsos que parezcan ser auténticos”, explicó Rodríguez.
Gracias a esto, los ciberdelincuentes pueden crear mensajes de voz falsos que son muy difíciles de detectar.
“Siri, abre la puerta” es, entonces, una frase que ya no nos suena tan segura. Y no importa si el AV es Siri, Alexa o Cortana: el riesgo es exactamente el mismo.
“Dar una serie de órdenes puede ser muy fácil pero mantener la seguridad de los hogares puede ser muy difícil si se desconoce hasta dónde pueden llegar los ciberdelitos”, puntualizó el especialista de Megatech.
Kit de defensa básico
El especialista reitero que los ataques de hacking voice pueden tener graves consecuencias, especialmente cuando se utiliza para robar información personal o financiera.
Es por ello que, al adoptar dispositivos de IoT o AV, los usuarios se exponen, principalmente a riesgos como:
- el robo de identidad
- obtención de información personal o empresarial
- obtención de credenciales
- hasta el uso de los dispositivos IoT interconectados a los asistentes a favor del criminal
- con el fin de obtener más datos de interés para realizar robos
- extorsión y demás ataques que comprometan la privacidad del usuario
Por todo ello, Megatech comparte algunas recomendaciones para proteger no sólo los asistentes virtuales de voz sino también los dispositivos IoT:
1.- Mantener una ubicación aislada
El altavoz inteligente debe estar alejado de otras posibles fuentes de sonido como televisores, equipos de música o incluso ventanas.
Es importante que permanezca apagado cuando no se use.
2.- Evitar su uso en público
Las personas son más vulnerables a un voice hacking cuando su voz es grabada sin su consentimiento.
Debe evitarse a toda costa que desconocidos puedan grabar la voz para, después, con un software de edición de sonido imitarla y dar órdenes al dispositivo.
3.- Programar y verificar que reconozca solo tu voz
Es posible entrenar al asistente virtual para que reconozca únicamente una voz, con ello se evitará que otras personas les den alguna instrucción.
Para verificarlo se le puede pedir a una persona de confianza que intente dictar órdenes de voz.