Ciberdelincuentes están utilizando ChatGPT para crear herramientas de hacking y escribir código
Desde su lanzamiento beta en noviembre, el chatbot con inteligencia artificial (IA) ChatGPT se ha utilizado para una amplia gama de tareas. Estas incluyen escribir poesía, artículos técnicos, novelas y ensayos, planificar fiestas y aprender sobre nuevos temas. Ahora podemos agregar a la lista el desarrollo de malware y otros tipos de delitos cibernéticos.
Investigadores de la firma de seguridad Check Point Research informaron el viernes que a las pocas semanas de que ChatGPT se lanzara, los participantes en los foros de delitos cibernéticos, algunos con poca o ninguna experiencia en programación, lo usan para escribir software y correos electrónicos que podrían usarse para espionaje, ransomware, malware spam y otras tareas maliciosas.
“Todavía es demasiado pronto para decidir si las capacidades de ChatGPT se convertirán o no en la nueva herramienta favorita para los participantes en la Dark Web”. Sin embargo, la comunidad ciberdelincuente ya ha mostrado un gran interés y se está sumando a esta última tendencia para generar código malicioso”.
El mes pasado, un miembro de un foro publicó lo que afirmó que era el primer script que había escrito y le dio crédito al chatbot de IA por brindar una “buena [ayuda] mano para terminar el script con un buen alcance”.
Scripts hechos por ChatGPT
El código de Python combinó varias funciones criptográficas, incluida la firma de código, el cifrado y el descifrado. Una parte del script generaba una clave usando criptografía de curva elíptica y la curva ed25519 para firmar archivos. Otra parte usó una contraseña codificada para cifrar los archivos del sistema usando los algoritmos Blowfish y Twofish. Un tercero usó claves RSA y firmas digitales, firma de mensajes y la función hash blake2 para comparar varios archivos.
El resultado fue un script que podría usarse para (1) descifrar un solo archivo y agregar un código de autenticación de mensajes (MAC) al final del archivo y (2) cifrar una ruta codificada y descifrar una lista de archivos que recibe como un argumento. No está mal para alguien con habilidades técnicas limitadas.
“Por supuesto, todo el código mencionado anteriormente se puede usar de manera benigna. Sin embargo, este script se puede modificar fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario. Por ejemplo, puede convertir potencialmente el código en ransomware si se solucionan los problemas de script y sintaxis”.
Investigadores
En otro caso, un participante del foro con experiencia más técnica publicó dos ejemplos de código, ambos escritos con ChatGPT. El primero fue un script de Python para el robo de información posterior a la explotación. El script busca tipos de archivos específicos, como PDF, los copia en un directorio temporal, los comprime y los envía a un servidor controlado por un atacante.
El individuo publicó un segundo script escrito en Java. Este descarga subrepticiamente el cliente SSH y telnet PuTTY y lo ejecuta usando Powershell. “En general, este individuo parece ser un ciberdelincuente orientado a la tecnología, y el propósito de sus publicaciones es mostrar a los ciberdelincuentes menos capacitados técnicamente cómo utilizar ChatGPT con fines maliciosos”.
Más códigos maliciosos…
Otro ejemplo más de software delictivo producido por ChatGPT fue diseñado para crear un sitio en línea automatizado para comprar o intercambiar credenciales para cuentas comprometidas, datos de tarjetas de pago, malware y otros bienes o servicios ilícitos. El código utilizó una interfaz de programación de terceros para obtener los precios actuales de las criptomonedas, incluidos monero, bitcoin y etherium. Esto ayudó al usuario a establecer precios al realizar transacciones de compras.
La publicación del viernes llega dos meses después de que los investigadores de Check Point intentaran desarrollar malware producido por IA con un flujo de infección completo. Sin escribir una sola línea de código, generaron un correo electrónico de phishing razonablemente convincente:
Los investigadores utilizaron ChatGPT para desarrollar un macro malicioso que podría ocultarse en un archivo de Excel adjunto al correo electrónico. Una vez más, no escribieron una sola línea de código. Al principio, el script generado era bastante primitivo:
Sin embargo, cuando los investigadores ordenaron a ChatGPT que iterara el código varias veces más, la calidad del código mejoró enormemente:
Luego, los investigadores utilizaron un servicio de inteligencia artificial más avanzado llamado Codex para desarrollar otros tipos de malware, incluido un shell inverso y scripts para escanear puertos, detectar sandbox y compilar su código Python en un ejecutable de Windows.
“Y así, el flujo de infección se completa. Creamos un correo electrónico de phishing, con un documento de Excel adjunto que contiene un código VBA malicioso que descarga una shell inversa en la máquina de destino. El trabajo duro lo hicieron las IAs, y todo lo que nos queda por hacer es ejecutar el ataque”.
Conclusión de los investigadores
Términos de ChatGPT
Si bien los términos de ChatGPT prohíben su uso con fines ilegales o maliciosos, los investigadores no tuvieron problemas para modificar sus solicitudes para sortear esas restricciones. Y, por supuesto, los defensores también pueden usar ChatGPT para escribir código que busque direcciones URL maliciosas dentro de archivos o consultar a VirusTotal para conocer la cantidad de detecciones de un hash criptográfico específico.
Así que bienvenido al nuevo y valiente mundo de la IA. Es demasiado pronto para saber con precisión cómo dará forma al futuro del hacking ofensivo y las soluciones defensivas, pero es una apuesta justa que solo intensificará la carrera armamentista entre los defensores y los ciberdelincuentes.