🔥Adquiere tu membresía:  acceso a todos los cursos, videos eliminados, contenidos protegidos, manuales y más. >> Ver Más

Cibercriminales entrenan chatbots de IA para ataques de phishing y malware

Con la aparición de WormGPT, un clon de ChatGPT entrenado con datos enfocados en malware, una nueva herramienta de hacking con inteligencia artificial generativa ha surgido con el nombre de FraudGPT, acompañado de al menos otra diferente basada en la IA experimental de Google, Bard, aún en desarrollo.

Ambos bots impulsados por IA son obra de la misma persona, quien parece estar sumergida en el juego crear chatbots entrenados para propósitos maliciosos, que van desde el phishing e ingeniería social, hasta la explotación de vulnerabilidades y la creación de malware.

FraudGPT apareció el 25 de julio y ha sido promocionado en varios foros por alguien con el apodo de CanadianKingpin12, quien menciona que la herramienta está destinada a estafadores, hackers y spammers.

Chatbots de la siguiente generación

El resultado de una investigación de la empresa de ciberseguridad SlashNext revela que CanadianKingpin12 está entrenando nuevos chatbots usando datos obtenidos de la dark web o basándose en modelos de lenguaje extenso desarrollados para combatir el cibercrimen.

En mensajes CanadianKingpin12 dijo que estaban trabajando en DarkBART, una “versión oscura” de la inteligencia artificial de google.

Los investigadores descubrieron que el anunciante tuvo acceso a otro modelo de lenguaje largo llamado DarkBERT desarrollado por investigadores de Corea del Sur y entrenado en la darkweb para pelear en contra del cibercrimen.

DarkBERT está disponible para académicos según las direcciones correo electrónico relevantes, pero SlashNext resalta que este criterio lejos de ser un desafío para los hackers o desarrolladores de malware, ya que pueden tener acceso al email de un académico por alrededor de 3 dólares.

Correos .EDU en venta
recurso: SlashNext

Los investigadores de SlashNext compartieron que CanadianKingpin12 dijo que DarkBERT es “superior a todos en una categoría propia, específicamente entrenada en la dark web”. Dicha versión ha sido ajustada para:

  • Crear campañas phishing, cuyo objetivo son las contraseñas y las tarjetas de crédito.
  • Ejecutar ataques avanzados de ingeniería social para obtener información privada o ganar acceso no autorizado a sistemas y redes.
  • Explotar vulnerabilidades en sistemas informáticos, software y redes.
  • Crear y distribuír malware
  • Explotar vulnerabilidades Zero Day para tener ganancias financieras o interrumpir los sistemas.

Como CanadianKingpin12 mencionó en un mensaje privado a los investigadores, tanto DarkBART como DarkBERT tendrán acceso libre a internet y una integración perfecta con Google Lens para el procesamiento de imágenes.

Para demostrar el potencial de esta maliciosa versión de DarkBert, el desarrollador creó el siguiente video:

No está claro si CanadianKingpin12 modificó el código de una versión  legítima de DarkBERT o sólo tuvo acceso al modelo y lo utilizó para un fin malicioso.

Independientemente del origen de DarkBERT y la validez de las afirmaciones, la tendencia de usar Chatbots generativos de IA está creciendo y es probable que su uso aumente, ya que proporciona una solución fácil para los atacantes menos capaces, o para aquellos que quieren expandir sus operaciones a otras regiones o que carecen de habilidades lingüísticas.

Con hackers teniendo acceso a esas dos herramientas que pueden ayudar a ejecutar ataques avanzados de ingeniería social y el desarrollo de las mismas en menos de un mes, “se destaca la influencia significativa de las IA maliciosas en el panorama de ciberseguridad y cibercrimen”, creen los investigadores de SlashNext.

Actualización 7 / ago – El Dr. Chung, cabeza de la IA y autor de DarkBERT en S2W ha enviado a BleepingComputer el siguiente comentario:

Dado a que S2W se apega a las pautas estrictas y éticas descritas por la ACL, el acceso a DarkBERT es otorgado después de una una evaluación cuidadosa y es aprobado exclusivamente para el interés público y académico.

Para desarrollar un modelo de DarkBERT para intenciones ilícitas, como aseguró CanadianKingpin12, sería necesario un proceso extenso de refinamiento preciso usando un volumen considerable de datos de la darkweb, junto con una integración con LLM y asignación de recursos. Sin embargo, lograr esos resultados en un periodo de tiempo (menos de un mes) desde el lanzamiento público de S2W parece poco plausible.

Incluso si CanadianKingpin12 hiciera mal uso del acceso otorgado, su aplicación sería restringida debido al procesamiento y entrenamiento del modelo, el cual eliminó efectivamente la información personal confidencial. Esto evita la posibilidad de explotar las campañas de BEC o hacer un mal uso de cualquier tipo de información personal.

Dadas estas observaciones, dudamos de la veracidad de la afirmación dicha por CanadianKingpin12, percibiéndose como un intento por explotar la popularidad de DarkBERT. Las supuestas funcionalidades que se afirman no pueden ser verificadas actualmente, por lo que nos lleva a sospechar que CanadianKingpin12 podría estar aprovechando el concepto de DarkBERT con fines promocionales.

Bibliografía:
Toulas, B. (2023a, agosto 7). Cybercriminals train A1 chatbots for phishing, malware attacks. BleepingComputer. https://www.bleepingcomputer.com/news/security/cybercriminals-train-ai-chatbots-for-phishing-malware-attacks/

Deja un comentario

Adquiere tu Membresía Anual Wiser

Adquiere tu Membresía Anual Wiser y adquiere grandes beneficios

Más información