Cuidado, no te está llamando tu hijo, es una IA imitando su voz

Cuidado, no te está llamando tu hijo, es una IA imitando su voz

Justo Romanos

Los scams evolucionan. Hasta ahora estamos muy habituados a las estafas que llegan con mensajes de SMS y que te intentan engañar para robarte, por ejemplo, el acceso a tus cuentas bancarias. Ahora los expertos avisan de la siguiente evolución de las estafas: llamadas falsas imitando la voz de tus seres queridos para conseguir engañarte.

Este nuevo método de estafa está comenzando a verse y los expertos avisan de ello porque saben que se va a convertir en la siguiente epidemia de amenazas de seguridad con la que nos enfrentemos. En la práctica, se puede convertir en una manera terrible de estafar a personas que se dejen llevar por la llamada falsa que reciban y que no se aseguren de si están siendo timados o no.

Voces reales generadas por IA

La base de estas estafas es simple. Lo que hacen los estafadores es realizar llamadas con una IA que estará preparada para hablar como una persona a la que la víctima conozca. Imagina que tu madre recibe una llamada con tu voz en la que le dicen que necesita dinero cuanto antes para salir de un aprieto. Tu madre estaría hablando con un estafador que controlaría la conversación y diría con tu voz exactamente lo que quisiera. Para ello, solo tendría que introducir el texto en el programa y la IA lo iría leyendo en tiempo real para continuar con la estafa.

El problema de esto es que las conversaciones serían totalmente convincentes. Tendrías problemas para reconocer que no se trata de la persona que te está llamando y eso abre un abanico de posibilidades de estafas y timos que resulta terrorífico. Por suerte, poner en marcha este scam no es tan fácil como enviar uno mediante SMS.

Así se hacen las estafas con voz

El trabajo previo a una estafa con llamada con voz realizada por IA no es tan simple como se pueda imaginar. Quienes estén al frente del scam necesitarán una amplia serie de muestras de voz para poder entrenar a la inteligencia artificial y que termine hablando de una manera convincente. La mala noticia es que, eso sí, esas muestras de voz son cada vez más fáciles de conseguir.

@adslzone

Te llaman, pero quien te habla no es realmente quien dice. Los peligros de la IA y la clonacion de voz. #ia #ai #voiceclone #clonarvoz #estafa #scam

♬ sonido original – ADSLzone

Los scammers pueden llamar a la persona a la que le van a copiar la voz y mantener conversaciones con ella con distintas excusas. Por ejemplo, hacerse pasar por una empresa de telefonía y hacerle ofertas o preguntas sobre el servicio. También podrían fingir distintas llamadas en las que hagan decir a la víctima una serie de palabras que les interese registrar. Y no hay que restar importancia a que sean millones de personas quienes tengan canales de YouTube o que publiquen sus vídeos en las redes sociales. Todo ello aporta un volumen de voces que los timadores pueden usar para entrenar a sus inteligencias artificiales.

Los casos, como indicamos, ya se están registrando. Hace poco tiempo, en Estados Unidos se hizo público un incidente en el que una madre recibió la supuesta llamada de su hija diciéndole que había sido secuestrada. Después de la voz de su hija, con la que le dijo lo que estaba pasando, al otro lado de la llamada se puso un hombre que le dijo que tenía retenida a la niña y que le tendría que pagar 1 millón de dólares a cambio de su liberación. Sonaba real. Muy real. Pero la madre, que llamó rápidamente a la policía, actuó con rapidez y descubrió que su hija estaba a salvo. Se había librado de la estafa, pero por los pelos.

Este tipo de situación es la que se está repitiendo cada vez más, un tipo de secuestro virtual que está pasando factura a las familias con la pérdida de miles y miles de dólares. Pero es obvio que la tecnología del deepfake aplicada a la voz puede ser utilizada para muchas otras estafas. A la vista de la situación y de lo que está ocurriendo, es conveniente estar al tanto de este tipo de riesgos y, sobre todo, instruir a nuestros mayores para que también sepan lo que ocurre.