Voice hacking

El voice hacking: una nueva herramienta para ciberdelincuentes

Los asistentes virtuales son un claro objetivo de los ciberdelincuentes, y no solo en la ficción.

El voice hacking se lleva a cabo mediante el uso de tecnologías de voz y audio para manipular la identidad de una persona.

Siempre se habló de los riesgos de ciberseguridad que suponía la IoT para empresas y usuarios. Y es que así como los monitores de salud, autos inteligente y dispositivos de seguridad pueden ser útiles en la vida cotidiana, al mismo tiempo pueden ser puertas de entrada para ciberdelincuentes, quienes cada vez descubren cómo crear falsas identidades través de estos y por tanto, entrar en un ecosistema personal.

Pero especialmente, los asistentes de voz constituyen la herramienta predilecta para desarrollar una nueva forma de ataque cibernético conocida como “voice hacking” que podría estar en aumento. Según datos compartidos en el CES 2023 y recaudados por la firma Digital Trends, más de 500 millones de personas usan el Asistente de Google a diario.

Miguel Rodríguez, Director de Ciberseguridad de Megatech explicó que el hacking voice se lleva a cabo mediante el uso de tecnologías de voz y audio para manipular la identidad de una persona y engañar a los destinatarios de la comunicación.

El voice hacking se basa en la manipulación de la voz y el audio para crear una falsa identidad. Un hacker puede grabar la voz de una persona sin su consentimiento, utilizando esa grabación para crear mensajes falsos que parezcan ser auténticos.

Gracias a esto, los ciberdelincuentes pueden crear mensajes de voz falsos que son muy difíciles de detectar. “Siri, abre la puerta” es, entonces, una frase que ya no nos suena tan segura. Y no importa si el AV es Siri, Alexa o Cortana: el riesgo es exactamente el mismo.

Dar una serie de órdenes puede ser muy fácil pero mantener la seguridad de los hogares puede ser muy difícil si se desconoce hasta dónde pueden llegar los ciberdelitos.

Considerando los riesgos asociados a la adquisición de este tipo de dispositivos, Megatech comparte algunas recomendaciones para proteger no sólo los asistentes virtuales de voz sino también los dispositivos IoT:

1.- Mantener una ubicación aislada

El altavoz inteligente debe estar alejado de otras posibles fuentes de sonido como televisores, equipos de música o incluso ventanas.

Es importante que permanezca apagado cuando no se use.

2.- Evitar su uso en público

Debe evitarse a toda costa que desconocidos puedan grabar la voz para, después, con un software de edición de sonido imitarla y dar órdenes al dispositivo.

3.- Programar y verificar que reconozca solo tu voz

Es posible entrenar al asistente virtual para que reconozca únicamente una voz, con ello se evitará que otras personas les den alguna instrucción.

Este reporte es mucho más extenso e interesante, de modo que si lo quieres ver completo, te invitamos a continuar su lectura en nuestra web hermana, The Standard CIOhaciendo clic en el enlace de abajo:

https://thestandardcio.com/2023/03/22/voice-hacking-alexa-siri/