La Policía Nacional alerta sobre el 'voice hacking': la estafa con IA que imita voces para engañar a familiares y amigos
La Policía Nacional alerta sobre el 'voice hacking': la estafa con IA que imita voces para engañar a familiares y amigos - TIKTOK @POLICIA
Actualizado: lunes, 13 enero 2025 10:37

MADRID 13 Ene. (EUROPA PRESS) -

La Policía Nacional ha lanzado una advertencia sobre el 'voice hacking', una modalidad de estafa que utiliza Inteligencia Artificial (IA) para imitar voces. En un vídeo compartido en TikTok, una portavoz del cuerpo explica cómo los ciberdelincuentes obtienen grabaciones de voz de sus víctimas y las utilizan para generar audios falsos con el fin de solicitar dinero o realizar otras acciones fraudulentas a su círculo más cercano.

"Los ciberdelincuentes obtienen tu voz mediante una grabación y, con Inteligencia Artificial, consiguen un audio en el que pueden engañar a tus familiares y amigos fingiendo que eres tú y solicitándoles dinero", explica la portavoz en el vídeo.

Ante esta amenaza, la Policía Nacional sugiere una medida preventiva simple pero eficaz: acordar con los contactos cercanos una clave secreta, como el nombre de una mascota o una fecha significativa, para verificar la autenticidad de las llamadas.

@policia VOICE HACKING ¿Sabes qué es? #ia #inteligenciaartificial ? number one - Casey Baer

¿QUÉ ES EL 'VOICE HACKING'?

Según el Instituto Nacional de Ciberseguridad (INCIBE), el 'voice hacking' o clonación de voz es una técnica que utiliza IA para replicar la voz de una persona y crear grabaciones que parecen auténticas. Este método, también conocido como 'deepfake de voz', permite a los estafadores hacerse pasar por alguien de confianza, ya sea un familiar, un amigo o incluso un ejecutivo de empresa, para engañar a las víctimas.

Entre las modalidades más comunes destacan el 'vishing', en el que los delincuentes se hacen pasar por instituciones confiables para obtener datos confidenciales, y la suplantación de identidad por voz, en la que se utilizan grabaciones manipuladas para solicitar dinero o información personal.

CASOS REALES DE 'VOICE HACKING'

El INCIBE se ha hecho eco de varios casos reales de estafas relacionadas con esta técnica para resaltar "la importancia de ser cauteloso con las llamadas telefónicas y dispositivos de voz".

Uno de los más destacados es el de Jennifer DeStefano, quien en 2023 recibió una llamada en la que la voz de su hija, clonada mediante Inteligencia Artificial, aseguraba haber sido secuestrada. Los estafadores exigieron un rescate de 50.000 dólares, aunque más tarde se descubrió que su hija estaba a salvo.

Otro caso ocurrió en Canadá, donde una pareja de ancianos retiró 3.000 dólares tras recibir una llamada de alguien que sonaba como su nieto, alegando estar detenido y necesitar dinero para la fianza. Finalmente, se dieron cuenta de que habían sido víctimas de una estafa antes de entregar el dinero.

CÓMO PROTEGERSE DEL 'VOICE HACKING'

La Policía Nacional y el INCIBE recomiendan varias medidas para prevenir este tipo de estafas:

1. Desconfiar de llamadas sospechosas: Verificar la identidad del interlocutor antes de actuar, especialmente si se solicitan transferencias de dinero o datos sensibles.

2. Acordar una clave de seguridad: Tal y como sugiere la Policía Nacional, establecer una palabra o frase secreta con familiares y amigos puede ser útil para verificar la autenticidad de una llamada.

3. Mantener actualizados los dispositivos: Instala las actualizaciones de seguridad para protegerte de vulnerabilidades que puedan ser explotadas.

4. Evitar usar asistentes de voz en público: Los asistentes virtuales (Siri, Alexa, etc.) tienen la capacidad de registrar conversaciones y comandos, lo que podría facilitar a los estafadores recopilar información para realizar ataques de ingeniería social o construir un perfil detallado de tu voz. Además, en entornos públicos, existe el riesgo de que otras personas graben tu voz, lo que podría ser utilizado posteriormente para crear una clonación mediante Inteligencia Artificial.

5. Configurar la autenticación de voz: configura esta función en dispositivos compatibles para que respondan solo a tu voz o a voces previamente registradas. Esta medida añade una capa adicional de seguridad.

6. Cambiar contraseñas regularmente: Utiliza contraseñas seguras que sean difíciles de adivinar, combinando letras mayúsculas y minúsculas, números y caracteres especiales. Además, evita usar la misma contraseña en múltiples cuentas.

Contador

Leer más acerca de: