La inteligencia artificial está cruzando un límite demasiado peligroso: puede crear un malware con el que infectar miles de dispositivos en segundos. Los hackers podrían tener los días contados.
Adiós a los hackers humanos: ahora IA como la de ChatGPT pueden crear virus en tiempo récord
Computer Hoy
Por: Claudia Pacheco
Los programadores o los administrativos no son los únicos empleos que podrían desaparecer con la llegada de la inteligencia artificial. Los modelos de IA empiezan a superar en capacidades a los propios hackers.
Los ciberdelincuentes deben adaptarse a sistemas de seguridad de ordenadores y software cada vez más sofisticados. Los virus deben ser cada vez más complejos, y esta tarea no es sencilla para los hackers, así que ChatGPT tiene la solución.
La IA de Sam Altman puede crear un virus que infecte miles de móviles y ordenadores en tiempo récord, desde controlar los dispositivos en remoto hasta acceder a la información sensible de los usuarios.
Ciberataques diseñados con ChatGPT

ChatGPT puede generar código para un malware más rápido que los propios hackers.Canva
Los grandes modelos de lenguaje (LLM) han descubierto que pueden aprovechar los exploits, es decir, errores, vulnerabilidades o fallos del software para ejecutar acciones no autorizadas. Los malware pueden acceder a las claves guardados en el dispositivo, ejecutar comandos en remoto, robar los datos o bloquear una aplicación.
Los expertos en ciberseguridad han descubierto que pueden generar exploits automáticamente desde ChatGPT. Los investigadores de un estudio publicado en Computer Networks han automatizado la generación de un malware.
ChatGPT y Llama 2, la IA de código abierto de Meta, están en el punto de mira. Los resultados tras una conversación milimétricamente calculada han sorprendido a los propios investigadores.
«Trabajamos en el campo de la ciberseguridad con un enfoque ofensivo», comenta Simon Pietro Romano, coautor del artículo, a Tech Xplore. «Nos interesaba comprender hasta dónde podíamos llegar aprovechando los LLM para facilitar las pruebas de penetración», añade.
Entrenar a ChatGPT y Llama 2 para crear un malware
La tarea no ha sido sencilla, ChatGPT se negará a crear código potencialmente dañino si los usuarios lo solicitan. Los investigadores tuvieron que asignar diferentes roles a los modelos de IA y seguir una serie de pasos previamente calculados.
ChatGPT y Llama 2 tenían una misión en cinco pasos: analizar un programa vulnerable, identificar los posibles exploits, planificar un ataque basado en estos exploits, revisar el comportamiento de los sistemas de hardware y generar el código del malware.
«Permitimos que dos LLM diferentes interoperaran para completar todos los pasos del proceso de creación de un exploit válido para un programa vulnerable», ha explicado Romano. «Uno de los LLM recopila información sobre el programa vulnerable y su configuración de ejecución. Luego, el otro LLM crea un exploit funcional».
La clave para crear un malware está en combinar varios modelos de IA. El resultado ha asustado a los propios investigadores, el código permite ejecutar un ciberataque de desbordamiento de búfer en el que se sobrescriben los datos almacenados en un sistema para alterar el comportamiento de apps instaladas.
La investigación es una mera prueba del potencial de la inteligencia artificial, pero Simon Pietro Romano advierte que «demuestra claramente la viabilidad del enfoque». La IA incluso podría obtener datos de la efectividad de su propio exploit.