Ahora que el boom de los chatbot está comenzando a perder velocidad, parece que los hackers han encontrado en esta tecnología su nuevo «juguete». Tal y como desvelan expertos en seguridad, hay un nuevo clon de ChatGPT que está circulando en el entorno hacker como una herramienta para llevar a cabo actos maliciosos. Se llama FraudGPT y, según parece, ya podría estar en manos de muchos hackers.
Hace unos días te hablamos de WormGPT, uno de los primeros chatbot para hackers. Ahora se ha descubierto FraudGPT, tecnología que sigue sus mismos pasos y que su creador ha estado promocionando muy activamente en los últimos días. ¿Su objetivo? Venderlo todo lo posible para obtener ingresos y poner en las manos de otros hackers una herramienta aparentemente muy poderosa.
¿Qué puede hacer?
En cierta manera, aunque no es exactamente una copia de WormGPT, sí que se puede ver que hay características que coinciden. Pero es obvio teniendo en cuenta que, hoy por hoy, los hackers buscan una serie de funciones muy determinadas en este tipo de herramientas con inteligencia artificial. Como imaginarás, no buscan precisamente hacer resúmenes de textos o generar caras falsas. Por ejemplo, pueden usar el chatbot para crear mensajes de forma instantánea en los que tendrán un texto haciéndose pasar de manera realista por entidades bancarias.
Con ese tipo de mensajes, los hackers tienen la oportunidad de llevar a cabo ataques de phishing a través de SMS, siendo un tipo de amenaza de la que te hablamos habitualmente. La rapidez y la supuesta eficacia en las respuestas de FraudGPT, lo podrían convertir en uno de los programas más peligrosos a la hora de plantear nuevas ciberamenazas.
Tiene otros usos de riesgo
Otra de las funciones que el creador de esta IA presenta de forma más concreta es la que permite a los hackers llevar a cabo ataques para robo de tarjetas de crédito. Por ejemplo, los cibercriminales pueden preguntarle al chatbot cuáles son las páginas que más les recomiendan para hacer este tipo de fraude, e incluso comparte los códigos de identificación bancaria que normalmente son privados. Esa información puede ayudar a que los hackers estén más cerca de llevar a cabo sus ataques con éxito, lo que no resulta nada bueno desde el punto de vista de una posible víctima.
Lo peor de todo es que se prometen otras características y funciones, dejando abierta la posibilidad de que los propios hackers encuentren más maneras de usar la IA para cometer delitos. Y, por si eso fuera poco, el creador de este chatbot está ofreciendo otros servicios adicionales en los foros de hackers donde ha ofrecido el programa a clientes interesados. Así, se ofrece a enseñar a usar el programa a fondo o a dar otros consejos para cometer ciberdelitos e incluso dice que vende números de tarjeta robados.
Todo ello ha hecho que expertos en seguridad como Rakesh Krishnan, de la firma de seguridad Netenrich, se pongan manos a la obra para intentar parar los pies de este vendedor y que así su software de inteligencia artificial no se siga extendiendo. La noticia ya ha llegado a los medios y eso ayudará a que el ruido haga que el vendedor acabe desapareciendo, al menos en teoría. De momento la venta de FraudGPT sigue en activo en el Telegram del hacker o en el foro donde fue descubierto hace unos días.
Dice Krishnan, que parece que ha tenido la oportunidad de explorar en profundidad este chatbot malicioso, que su uso no solo habilita las funciones que hemos comentado. También comenta que se está utilizando para ataques de carding, para el desarrollo de herramientas de ataque y para otro tipo de estafas que utilicen mensajería, como timos por correo electrónico. Su creador define la herramienta como algo que puede hacer que la «forma en la que los hackers trabajan cambie para siempre». Pero es obvio que no deja de ser otro mensaje promocional exagerado con el cual solo trata de atraer la atención de otros cibercriminales. Crucemos los dedos para que FraudGPT acabe desapareciendo.