¿Y si un día te llaman por teléfono y escuchas a tu hija gritar pidiendo ayuda… pero no es ella? Ese fue el susto que vivió una madre estadounidense, víctima de una estafa de voz generada por IA. Hoy, lo que oyes ya no es garantía de nada. En los últimos meses he seguido de cerca el auge de una nueva amenaza: el secuestro de voz mediante inteligencia artificial. Esta técnica permite clonar voces reales con una precisión escalofriante, y ya se está usando para cometer fraudes, suplantaciones y extorsiones. Te cuento lo que he aprendido y cómo protegerte.
La IA es muy buena para facilitarnos la vida en múltiples aspectos, pero los ciberdelincuentes también la están usando para que sus estafas sean cada vez más complicadas de detectar. La voz generada por IA es casi tan real como la de una persona, y eso supone un verdadero riesgo.
La voz ya no es prueba de identidad
Basta con que alguien tenga tres segundos de tu voz, extraídos de un vídeo en redes sociales o incluso de un mensaje de voz reenviado, para que un sistema de IA pueda clonar tu tono, tu ritmo y hasta tus pausas.
Y con esa clonación, los estafadores hacen llamadas suplantando a familiares, amigos o incluso directivos de empresa. Usan frases con urgencia, piden transferencias rápidas o crean situaciones límite como secuestros ficticios. El cerebro no tiene tiempo de analizar si lo que escucha es real o no: suena como esa persona, y punto.
Un ejemplo real: en Italia, unos criminales suplantaron con voz clonada al ministro de Defensa y pidieron dinero a importantes empresarios del país. En Estados Unidos, varios bancos ya han detectado fraudes cometidos a través de centros de llamadas donde la autenticación se hacía únicamente por voz. Y no estamos hablando del futuro: esto ya está ocurriendo.
¿Puede fallar la biometría de voz?
Sí, y de hecho ya está fallando. Los sistemas que verifican la identidad de una persona solo por su voz están quedando obsoletos frente a los modelos de IA generativa. La propia industria financiera, que ha apostado durante años por la autenticación vocal, ya está buscando alternativas más robustas.
El problema es que la voz es demasiado fácil de clonar, y muchos sistemas no tienen en cuenta matices como el comportamiento vocal, las emociones reales o las microvariaciones naturales. Así que sí: puedes tener una cuenta supuestamente protegida por biometría de voz… y que un estafador con acceso a tu TikTok pueda entrar igualmente.
Cómo protegerte del secuestro de voz por IA
Después de revisar decenas de informes, estas son las medidas más efectivas que puedes aplicar desde ya:
- No confíes solo en la voz. Si alguien te llama con una urgencia extrema y te pide dinero, verifícalo por otra vía. Llama tú directamente, pide una palabra clave, escríbele un mensaje. No actúes solo por lo que has escuchado.
- Usa autenticación multifactor (MFA) siempre que sea posible. La voz no puede ser tu única llave de acceso.
- No subas audios personales innecesarios a internet. Cuanto más material tengan de tu voz, más realista será la clonación.
- En las empresas, forma al personal clave. Quienes toman decisiones financieras deben conocer estos riesgos y tener protocolos claros ante solicitudes urgentes o inusuales.
- Combina autenticación vocal con biometría conductual. Es decir, patrones de habla, acentos, pausas… cosas que una IA todavía no puede imitar con naturalidad.
Cuidado con WhatsApp y el secuestro de voz
Debemos tener en cuenta que WhatsApp una de las aplicaciones de mensajería más utilizadas en el mundo, y precisamente por ese motivo, se ha convertido en un terreno fértil para los estafadores. Los mensajes de estafa tradicionales, se combinan con tecnología de clonación de voz mediante inteligencia artificial.
Los estafadores y suplantadores de identidad, se tenían que conformar con intentar convencer a su víctima mediante mensajes de texto. Pero el peligro ahora, es que solo necesitan unos segundos de audio para hacer que las probabilidades de éxito de su estafa aumenten considerablemente. Pueden extraer ese audio de un mensaje de voz reenviado o incluso de un grupo de WhatsApp se haya compartido un audio, para clonar la voz con una precisión alarmante.
Tras tener el audio, pueden crear estafas que busquen la manipulación emocional. Vamos al grano con un ejemplo directo. Si le llega a tu madre un audio con tu voz, explicando que necesitas ayuda, posiblemente tu madre te ayude sin pensarlo. Seguramente, eso pase por enviar dinero dónde “tú” le digas. Cuando tu madre se pare a pensarlo o hable contigo de otra forma, posiblemente sea tarde. Debemos tener en cuenta que cuando un WhatsApp es vulnerado, el delincuente tienen acceso a todos nuestros contactos, por lo que sus intentos pueden ser de cientos hasta que alguien pica en la trampa.
El riesgo en WhatsApp radica en lo cotidiano que es compartir mensajes de voz. Es muy habitual enviar un audio rápido para explicar algo o saludar en un grupo familiar, sin pensar que ese pequeño clip podría ser interceptado. La mejor medida de prevención es la cautela. Un consejo es evitar
enviar mensajes de voz innecesarios, especialmente en grupos grandes o con personas que no conocemos bien. Y aunque parezca una tontería, convendría ir memorizando una palabra clave con nuestros seres queridos para en caso de emergencia, como otra medida de hacer frente al sofisticado phishing que nos viene por delante.
No es ciencia ficción, es el nuevo presente
La gran amenaza de la inteligencia artificial no es solo que imite bien, sino que rompa las barreras entre lo real y lo falso sin que nos demos cuenta. Ya no basta con ver o escuchar para creer: necesitamos contexto, verificación y pensamiento crítico.
Y lo peor es que estas herramientas están al alcance de cualquiera. Son baratas, fáciles de usar y muy efectivas. Lo que antes requería un equipo de estafa profesional, hoy lo puede hacer una sola persona con un portátil y una conexión.
El secuestro de voz por IA es una realidad cada vez más peligrosa. Ya no basta con escuchar una voz conocida para confiar. La tecnología avanza muy rápido, pero también lo hacen las estafas. Toca adaptarnos, ser escépticos y no actuar por impulso. Porque la próxima vez que suene el teléfono, lo que escuches puede no ser real.
Otras dudas sobre el secuestro de voz por IA
Estamos ante un tema delicado del que sin duda, ya tenemos que protegernos. Pero el futuro parece mucho peor si tenemos en cuenta las herramientas cada vez más sofisticadas con las que cuentan los estafadores. Hemos visto los aspectos más importantes acerca del actual secuestro de voz, pero puede que hayan quedado algunas dudas en el aire, que intentaremos resolver a continuación.
¿Cómo saber si una llamada es real o una clonación de voz?
No hay una forma infalible solo con escuchar. Si la suplantación está bien hecha, es casi imposible detectar el fraude. La mejor manera es chequear por otro canal, es decir, cortar la llamada y contactar a esa persona directamente por WhatsApp, videollamada o en persona. Poco a poco, también pudiera ser buena idea establecer palabras clave de seguridad con familiares y amigos cercanos.
¿Qué hacen exactamente los ciberdelincuentes con las voces clonadas?
Su objetivo principal es engañar con situaciones de urgencia como pedir transferencias bancarias rápidas, simular secuestros, o suplantar a un directivo en la empresa para dar órdenes (generalmente de pago) El objetivo casi siempre es económico, aunque también se han dado casos de extorsión o chantaje.
¿Basta con tener cuidado en WhatsApp para estar a salvo?
WhatsApp se ha convertido es un foco importante porque se comparten muchos audios, pero no es el único. Los estafadores también extraen voces de TikTok, Instagram o YouTube. La mejor prevención pasa por limitar dónde compartimos audios y ser conscientes de que cualquier fragmento público puede usarse de manera maliciosa.
¿Las llamadas falsas con voz clonada son fáciles de detectar por la policía?
Pueden ser muy complicadas de detectar, ya que la mayoría se realizan con números enmascarados, VoIP o servicios anónimos. Denunciar siempre es clave, porque ayuda a las autoridades a tener más patrones para poder alertar a otros ciudadanos sobre nuevos métodos de fraude.
