Vivir | Tecnología

Dos medidas para aplicar ya y evitar que te estafen con tu propia voz

Los falsos secuestros de familiares y las peticiones de información comprometida son algunas de las prácticas más habituales entre los ciberdelincuentes

Lunes, 21 de julio 2025, 13:30

En 2023, Jennifer DeStefano recibió la llamada de un número desconocido. Al descolgar escuchó la voz de su hija mayor, Brianna, de 15 años, quien ... entre gritos trataba de zafarse de sus captores. A continuación, estos solicitaron una importante suma a cambio de liberar a la niña, con la amenaza de hacérselo pagar si se producía cualquier tipo de aviso a las autoridades. 

Publicidad

Cuatro desesperantes minutos después, la mujer descubrió que su hija se encontraba a salvo. Nunca había dejado de estarlo, de hecho, ya que había sido víctima de un intento de estafa: «La voz sonaba como la de Brie, la inflexión, todo», explicó DeStefano a la CNN, aún desconcertada por no haber detectado la falsedad de la grabación reproducida por los malhechores: «Una madre conoce a su hija. Puedes escucharla llorar al otro lado de la línea y sabes que es tuya. O eso creía hasta ahora».

La técnica empleada para engañar a Jennifer se conoce como 'voice hacking' o 'deep voice' y, en efecto, consiste en manipular la voz de personas reales para la comisión de delitos. Las grabaciones originales suelen obtenerse mediante llamadas fraudulentas (en las que solo escuchamos un silencio prolongado, o donde un operador nos da conversación con excusas algo sospechosas), pero también comprometiendo la seguridad de aquellos dispositivos provistos de micrófono, como nuestro propio smartphone o un altavoz inteligente. 

Cuando disponen de los suficientes minutos de grabación, los ciberdelincuentes emplean herramientas de Inteligencia Artificial para replicar la tonalidad y modulación de nuestra voz en el contexto de frases que tan siquiera hemos pronunciado. Por eso, desde ya, debemos aplicar dos medidas: Hay que desconfiar de las llamadas provenientes de números desconocidos, esta es la primera clave. Si decidimos contestar, siempre es mejor dejar que el interlocutor se pronuncie primero. A menudo, los delincuentes tan solo buscan grabar el habitual '¿sí?' para después autorizar la contratación de productos y servicios en nuestro nombre. ¿La segunda? Si quien nos llama es un supuesto amigo o familiar, lo mejor es formularle alguna pregunta que solo él pueda responder o, directamente, colgar y llamar a su número de teléfono habitual.

Publicidad

Tres tipos de estafa...

La Oficina de Seguridad del Internauta (OSI), dependiente del Instituto Nacional de Ciberseguridad (INCIBE) distingue tres tipologías de estafa que a menudo utilizan la técnica del 'voice hacking'. En la primera, conocida como 'vishing', «los malhechores suelen hacerse pasar por representantes de instituciones confiables, como bancos, servicios de atención al cliente o incluso agencias gubernamentales». ¿Su objetivo? Ganarse la confianza de la víctima para que les proporcione datos sensibles como números de cuentas bancarias o contraseñas, con las que realizar transacciones no autorizadas. 

Por su parte, el caso de DeStefano se corresponde con la suplantación de identidad por voz. Además de llamadas a supuestos familiares para la petición de rescates, los ciberdelincuentes han llegado a replicar la voz de cargos directivos para obtener información confidencial de ciertas empresas, la cual utilizan a posteriori para infiltrarse en sus sistemas o cometer extorsión. Especialmente sonado fue el fraude a una corporación de Reino Unido en 2019: los atacantes clonaron la voz de su CEO y llamaron al director de una subsidiaria ordenándole la transferencia inmediata de 220.000 euros a un banco húngaro. La treta se descubrió demasiado tarde como para recuperar el dinero, pero al menos sirvió para reforzar la seguridad frente a este tipo de amenazas. También puede ocurrir que los amantes de lo ajeno activen remotamente nuestros asistentes de conversación (Alexa, Google, Siri...), pudiendo así espiarnos, realizar compras por Internet e incluso deshabilitar sistemas de alarma. 

Publicidad

... y tres contramedidas clave

La OSI enumera las siguientes recomendaciones para minimizar el riesgo de ser estafados a través del 'voice hacking':

• Cambiar nuestras contraseñas periódicamente: El INCIBE recomienda a este respecto emplear contraseñas difíciles de adivinar.  

• Revisar los ajustes de nuestro asistente de voz: Tanto Alexa como Siri y Google cuentan con una opción para limitar sus respuestas exclusivamente a nuestra voz (o la de otros miembros de la familia). Así evitaremos que puedan activarse con voces clonadas y ejecuten acciones que no les hemos pedido. 

Publicidad

• No usar estos asistentes en sitios públicos: «Pueden captar conversaciones y comandos que podrían ser utilizados para realizar ataques de ingeniería social o para crear un perfil de tu voz», explica la OSI, que advierte además sobre la posibilidad de que terceras personas graben nuestra voz en ese momento para replicarla posteriormente.

• Mantener actualizados nuestros dispositivos: Contar con los últimos parches de seguridad en nuestro smartphone o altavoz inteligente nos protege.

Este contenido es exclusivo para suscriptores

Accede todo un mes por solo 0,99€

Publicidad