Verdadero o Falso

'Voice hacking' o cómo los delincuentes clonan tu voz para cometer estafas

Replican tu forma de hablar mediante IA con el fin de engañar a tu entorno, obtener información confidencial o incluso comprometer la seguridad de asistentes virtuales
Imagen creada con IA que escenifica la clonación de voz.
Imagen creada con IA que escenifica la clonación de voz.

La Inteligencia Artificial (IA) es una herramienta muy útil para el día a día, pero en las manos inadecuadas se puede convertir en un instrumento muy peligroso. Es el caso de los delincuentes cibernéticos, quienes no tardan en hacerse con cualquier avance tecnológico que les abra la puerta a estafar a la población.

Las técnicas son cada vez más sutiles y sofisticadas, y la víctima muchas veces ni se da cuenta de que está siendo objeto de un engaño. Entre estas destaca la clonación de la voz, también conocida como voice hacking.

Los delincuentes replican la voz de una persona mediante inteligencia artificial, obteniendo grabaciones que suenan como si fueran auténticas. Conocida también como deepfake de voz o deep voice, esta técnica puede incluso comprometer la seguridad de asistentes virtuales como Alexa, Siri o Google Home.

Una mujer utiliza el asistente de voz de Google.

Una mujer utiliza el asistente de voz de Google.

Tipos de estafas

La población debe tomar conciencia de que este tipo de estafas son una amenaza real y creciente en el mundo digital. Por ello, el Incibe (Instituto Nacional de Seguridad) informa de distintas técnicas con las que los delincuentes nos pueden engañar mediante la clonación de voz. Algunas de ellas son:

- Vishing

Los atacantes investigan en redes sociales a sus víctimas y recopilan información personal. A partir de solo tres segundos de audio extraído de vídeos o publicaciones, a través de inteligencia artificial, crean un clon de voz que imita al de la persona. Los hackers envían mensajes haciéndose pasar por compañeros o jefes y les avisan de que van a recibir una llamada. En ella, y haciendo uso de la voz clonada, piden a la víctima, por ejemplo, que haga un pago urgente. Los delincuentes observan si la víctima sigue las instrucciones, y generalmente confirman el éxito al final de la llamada.

- Suplantación de voz

Los ciberdelincuentes analizan con inteligencia artificial grabaciones de voz y crean versiones sintéticas que suena igual que las originales. Con ellas harán llamadas telefónicas o enviarán mensajes de voz con el fin de engañar a las víctimas para que hagan transferencias, den información confidencial o hagan compras en línea.

- Asistentes de voz y dispositivos

Alexa, Siri, Google Home o sistemas de seguridad doméstica conectados a internet pueden ser manipulados con comandos de voz falsificados para realizar compras en línea, desactivar alarmas de seguridad, acceder a información personal almacenada en el dispositivo o incluso para espiar a los usuarios mediante la activación de mircrófonos.

Los ciberdelincuentes aprovechan la IA para estafar a sus víctimas.

Los ciberdelincuentes aprovechan la IA para estafar a sus víctimas.

Riesgos de la clonación de voz

La clonación de voz puede tener consecuencias muy negativas para quien la sufre o para otras personas. Un presunto marido que llama a su mujer para que le envíe un mensaje a un número de teléfono concreto; una hija que llama a su madre para decirle que ha sido secuestrada; un nieto detenido que llama a su abuela para que pague una fianza o un CEO que solicita a un subordinado una transferencia urgente son algunos de los fraudes registrados; detectarlos a tiempo puede evitar graves perjuicios económicos.

La voice hacking puede suponer también un robo de identidad y es uno de los riesgos más serios asociados a esta estafa. La consecuencia puede causar pérdida de dinero, pero también tener dificultades para restaurar la propia identidad.

Los delincuentes, sin escrúpulos, también pueden usar esta técnica para enviar mensajes falsos que afecten a la reputación o a la imagen personal o profesional de una persona, con el perjuicio que eso supone. Una voz clonada puede ser utilizada para enviar mensajes falsos o comprometedores que dañen las relaciones familiares, amistosas o laborales.

Medidas de protección

Para protegerse de los fraudes de voice hacking y minimizar los riesgos, desde el Incibe aconsejan combinar medidas preventivas y prácticas de seguridad. El organismo pide desconfiar de las llamadas que recibamos de números desconocidos. En primer lugar, hay que mantener la calma, dudar de las peticiones urgentes y verificar la identidad de la otra persona antes de compartir cualquier información personal.

También recomienda cambiar las contraseñar con regularidad y que estas sean seguras y difíciles de adivinar. No se debe utilizar la misma contraseña en muchas cuentas distintas.

Configurar la autenticación de voz en dispositivos para que respondan solo a tu voz añade una capa adicional de seguridad dificultando así que los estafadores utilicen una voz clonada para acceder a tus dispositivos.

En el caso del asistente de Google, debes evitar usar el asistente de voz en lugares públicos. Podría ser captado por otros dispositivos y utilizado después para crear un perfil de tu voz.

Tener tu dispositivo actualizado corregirá fallos de seguridad, lo protegerá contra nuevos tipos de ataques y reducirá también su vulnerabilidad, que podría ser aprovechada por los delincuentes para atacarte.

2025-01-10T05:11:11+01:00
En directo
Onda Vasca En Directo