La clonación de voz se ha tomado como un juego, una forma de hacer memes que, efectivamente, puede hacer mucha gracia. Sin embargo, su uso también puede ser malicioso, tal y como ha quedado demostrado en varias ocasiones.
Frente a esos memes y otros beneficios como facilitar traducciones, impulsar terapias logopédicas o ser una herramienta de lectura asistida para producir videos, audiolibros, podcasts y videojuegos, hay otra serie de usos que se alejan de estos fines. Y es que la clonación de voz también puede ser empleado con objetivos delictivos.
Tabla de Contenidos
Clonación de voz: una herramienta que puede ser utilizada para fraudes
Comparte un caso un experto de Bitdefender en la que pide a la audiencia que se imagine una llamada desesperada un hijo diciendo que ha tenido un accidente automovilístico y necesita dinero de inmediato para evitar problemas legales. La voz al otro lado suena exactamente como la de tu hijo o hija.
Bien pues, parece que este caso es real y le sucedió a la familia Trapp, ubicada en el área de la Bahía de San Francisco. Los Trapp recibieron una llamada de su “hijo” diciendo que había tenido un accidente automovilístico y había herido a una mujer embarazada y necesitaba ayuda urgente. Evidentemente, la voz no será de su hijo, sino una muy similar que había desarrollado un sistema de clonación de voz. Además, los estafadores no solo se hicieron pasar por el hijo, sino también por la policía, instando a la madre angustiada para que retirara rápidamente $15,000 en efectivo y se los entregara a un mensajero que ya estaba en camino a la casa.
Afortunadamente, los padres recelaron de todo y contactaron a la policía del área para comprobar la veracidad del supuesto accidente. Posteriormente llamaron a su hijo y descubrieron que todo se trataba de una estafa por clonación de voz.
Es fácil estafar con la clonación de voz
El método de estafa por clonación de voz no es nuevo, sino que existe desde hace años. No obstante, hay un cambio muy importante: antes, era necesario descargar software especializado para sintetizar o clonar una voz. Ahora, hay una amplia variedad de servicios de clonación de voz disponibles en la web. Utilizarlos no requiere conocimientos técnicos, y son tan avanzados que pueden replicar una voz con una precisión sorprendente.
Combinada con IA generativa como ChatGPT, la clonación de voz se ha convertido en una poderosa arma en manos de actores malintencionados. Los estafadores la usan para hacerse pasar por otras personas de manera convincente, engañando a las víctimas para que revelen información sensible o realicen transferencias de dinero.
Cómo lo hacen los delincuentes
En el caso de la estafa a la familia Trapp, el experto de Bitdefender explica cómo ha sido el modus operando de los estafadores a través de estos pasos:
- Los estafadores obtienen los números telefónicos de la familia a través de bases de datos filtradas, doxxing o phishing.
- Consiguen una muestra de la voz del hijo a través de redes sociales o una llamada telefónica.
- Utilizan esa muestra para crear un clon convincente de la voz, llaman a los padres haciéndose pasar por el hijo en peligro y solicitan ayuda financiera inmediata.
Cómo detectarlo
Del mismo, también se apunta cómo se puede detectar este intento de fraude mediante clonación de voz:
- Presión para actuar rápido: Los estafadores intentan generar pánico para evitar que pienses con claridad. Hay que mantener la calma como primera gran clave.
- Solicitudes de métodos de pago dudosos: Piden pagos en efectivo, tarjetas de regalo prepagadas o criptomonedas.
- Inconsistencias en los detalles: El relato es incoherente, demasiado genérico o carece de sustancia. Ante cualquiera de estas pistas, hay que verificar la situación llamando directamente a un familiar o amigo. Asimismo, la víctima debe hacer preguntas personales que solo ellos puedan responder y solicitar detalles que confirmen la urgencia de la situación.
Suplantación de un CEO: los fraudes de clonación de voz también se registran en las empresas
Lo ocurrido a la familia Trapp también es aplicable a las empresas. En este caso los delincuentes buscan imitar la voz de un alto ejecutivo, como un CEO, para autorizar transferencias fraudulentas.
En 2019, el director ejecutivo de una empresa del Reino Unido creyó estar hablando por teléfono con su jefe en la compañía matriz alemana, quien le ordenó transferir de inmediato £220,000 a lo que pensó que era la cuenta bancaria de un proveedor. El estafador, haciéndose pasar por su superior, dijo que el pago era urgente y debía realizarse en menos de una hora. El ejecutivo del Reino Unido reconoció el “ligero acento alemán” de su jefe y la “melodía” de su voz.
Hay que prestar mucha atención a los detalles, aunque los sistemas de clonación de voz por IA son tan avanzados que parece imposible distinguir lo falso de lo original. El consejo es siempre dudar ante cualquier situación anómala. Puede que recibas una llamada de un supuesto centro de atención al cliente y, a través de una clonación de voz, estar hablando ante un falso agente.
Si la llamada parece sospechosa, cuelga y llama directamente al número oficial de la institución. Y no compartas datos personales a menos que tú hayas iniciado el contacto.
Deja una respuesta