La inteligencia artificial no deja de avanzar, ya sea para bien o para mal. Aunque ChatGPT es uno de los modelos de lenguaje (LLM) más conocidos y difundidos por los usuarios, existen otras variantes, principalmente aprovechadas con fines maliciosos y disponibles en foros clandestinos.
Algunos de estos modelos son WormGPT y FraudGPT, se menciona en un informe del IJSR CSEIT, herramientas similares en la Dark Web destinadas a ayudar a ciberdelincuentes, sin restricciones y diseñadas para tareas como la creación de malwares indetectables, identificación de fugas o vulnerabilidades, así como la elaboración de páginas de phishing y pirateos.
Una IA "desbloqueada"
El primero de estos proyectos es WormGPT, un modelo de IA que surgió en marzo de 2021 y que empezó a ofrecerse en foros de hackers. Este chatbot se caracteriza por no tener límites que le impidan responder preguntas sobre actividades ilegales, a diferencia de LLM como ChatGPT.
Por ejemplo, WormGPT se puede utilizar para tareas como escribir malware en Python o incluso redactar correos electrónicos de phishing convincentes.
En el caso de este modelo, se puede adquirir a través de un pago mensual de entre 60 y 100 euros o uno de 550 euros al año.
Sin embargo, en una versión más reciente, WormGPT v2 tenía un precio de 550 euros anuales o 5,000 en su variante privada. Esta versión representaba una IA más avanzada, con mayor privacidad, formato y capacidad para cambiar entre modelos de IA.
ChatGPT, versión malvada
El segundo de estos modelos es FraudGPT, presentado en julio de 2023, que se promociona como una variante sin restricciones de ChatGPT. Se describe como una "gran herramienta" capaz de crear malware indetectable, elaborar páginas de phishing e incluso aprender a piratear.
Al igual que WormGPT, este también es un proyecto de suscripción, comenzando en los 200 dólares mensuales y alcanzando tarifas de hasta 1,700 anuales. Esto permite también la codificación y el hacking, la redacción de código malicioso y la elaboración de páginas o cartas fraudulentas.
Este modelo no solo se ofrece en un sitio web en la Dark Web, sino también a través de algunos canales de Telegram. WormGPT se basa en un modelo abierto de EleutherAI de 2021, contando con una capacidad de parámetros similares a GPT-3.
La nueva era de ciberataques con IA
Sitios como Trustwave, Neterich, o Hackernoon son conscientes de los riesgos que representan para los usuarios este tipo de modelos, ya que abren nuevas puertas de ataques a los cibercriminales y retos adicionales para las empresas enfocadas en trabajos de ciberseguridad.
Para la mayoría de los usuarios, también representa un riesgo adicional de caer, pues, tal como documenta la firma de seguridad Proofpoint en una entrevista para El País, ahora los ciberatacantes ya no cometen errores como faltas de ortografía en sus correos, algo que antes era constante en este tipo de ataques.
Por lo pronto, según el sitio Hackernoon, este tipo de desarrollos es "un recordatorio memorable de cómo los ciberdelincuentes siguen cambiando sus técnicas para lograr el máximo impacto".
Comments