YouTube se llena de deepfakes de Elon Musk que «regalan» criptomonedas, pero son estafas

Los deepfakes son cada vez más realistas y los ciberdelincuentes se están aprovechando de ello para sus estafas online. Recientemente, han publicado varios vídeos en YouTube con la cara de Elon Musk en el que el magnate supuestamente regalaba criptomonedas bien valoradas a cambio de que le confiarán las que ya tenían.
Elon Musk ha sido el protagonista de la última ciberestafa relacionada con criptomonedas. Los malhechores utilizaron múltiples deepfakes del empresario en un directo de YouTube para convencer a los usuarios de que cediesen sus criptomonedas Bitcoin, Ethereum o Dogecoin en un sitio web sospechoso. Supuestamente, después de hacerlo, obtendrían más monedas virtuales gratis. Por supuesto, esto último no ocurría.
La retransmisión en vivo duró un total de cinco horas e incluso permaneció temporalmente publicado en YouTube. Aunque la plataforma en streaming de Google haya borrado por fin el deepfake, estuvo disponible durante el tiempo suficiente como para que más de 30.000 espectadores lo viesen.
La cuenta en la que se realizó el directo se hacía pasar por Tesla bajo el pseudónimo @elon.teslastream. Además, tenía la insignia de verificación de YouTube, algo que hacía más realista el contenido.
Esta no es la primera vez que usan la cara de Musk para promocionar este tipo de estafas en YouTube. Cointelegraph detectó una deepfake de este tipo a principios de junio y en Reddit también alertaron de ello hace ya tres meses. Sin embargo, en vez de usar un falso evento de Tesla como excusa, hacían lo propio con un lanzamiento de Starship de SpaceX.
Los deepfakes de famosos en Internet también afecta a españoles
El boom de la inteligencia artificial ha afectado a las deepfakes hasta tal punto que preocupa a los expertos en seguridad. Literalmente, el término en inglés significa «falsedades profundas» y son vídeos, fotos o audios manipulados mediante IA para que parezcan auténticos. Aunque su uso no esté necesariamente relacionado con las ciberestafas, cada vez son más los que la usan con malas intenciones.
A veces, las deepfakes fraudulentas se cuelan en plataformas con miles de millones de usuarios. Aunque las redes sociales y otros servicios digitales no permitan este tipo de prácticas, el tiempo que duran estos falsos vídeos es suficiente para que más de una persona caiga en la trama. Y ese ha sido el caso de Elon Musk al que no es la primera vez que suplantan para estafas relacionadas con criptomonedas.
En España, varios famosos han sido protagonistas de falsos anuncios que promocionaban la inversión en criptomonedas. No siempre es necesario una deepfake, a veces basta con una hipotética entrevista que nunca ha ocurrido. Por ejemplo, tenemos los casos de Martiño Rivas, Antonio Resines, Belén Rueda, Pablo Motos, Lola Índigo, Cristina Pedroche, Susana Griso y Chicote, entre otros. Pese a que los propios artistas recalquen en sus redes sociales oficiales que no son ellos, siempre hay alguna persona que puede caer en la trama. Sobre todo en la actualidad, ya que las deepfakes son mucho más realistas de lo que lo eran en el pasado.
MALDITO TIMO@maldito_timoX se ha llenado de anuncios que utilizan la imagen de famosos como @lolaindigomusic @CristiPedroche o Martiño Rivas para promocionar falsas inversiones en criptomonedas ⚠️💸En https://t.co/a1KDTR9rgQ hemos investigado estas campañas. Te lo contamos 👇
https://t.co/aQYRX0py6d https://t.co/wjeBwrzZq5
17 de mayo, 2024 • 19:16
16
0
Además de para ciberestafas, los deepfakes también se han utilizado para crear fotos pornográficas falsas. En este caso, las principales perjudicadas suelen ser mujeres, como Taylor Swift, Rosalía, Ana de Armas, Scarlett Johansson o Laura Escanes.
R O S A L Í A@rosaliaEl cuerpo d una mujer n es propiedad pública, no es una mercancía xa tu estrategia d marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni t conozco. Existe algo llamado consentimiento y todos a los q os pareció gracioso o plausible espero de… https://t.co/TFJXUiL6Cx24 de mayo, 2023 • 21:22
321.7K
4.7K
Todos estos problemas relacionados con deepfakes han provocado que los políticos busquen una regulación al respecto. El partido Sumar presentó en octubre de 2023 una Proposición de Ley Orgánica para regular las simulaciones de imágenes y voces generadas por inteligencia artificial. Esta iniciativa conllevaría que todo aquel que difundiese imágenes, vídeos o audios falsos de este tipo tuviese que tener el consentimiento previo de la persona afectada. De lo contrario, se enfrentarían a multas de decenas o centenas de miles de euros.