Hackers de China e Irán usan ChatGPT para realizar ciberataques OpenAI informó que hackers de China e Irán han utilizado modelos de lenguaje como ChatGPT para desarrollar malware y lanzar ataques cibernéticos.
OpenAI informó que se detectaron alrededor de 20 ciberataques, los cuales fueron llevados a cabo con la ayuda de ChatGPT y otros modelos de lenguaje.
De acuerdo con reportes de Bleeping Computer, los responsables de estos ataques provienen principalmente de China e Irán, donde grupos de hackers han aprovechado las capacidades avanzadas de la inteligencia artificial (IA) para crear y mejorar malware y también lanzar ataques de phishing dirigidos a gobiernos de países asiáticos.
Uno de los primeros ataques de este tipo fue orquestado por activistas chinos, quienes emplearon una técnica conocida como SweetSpecter. Este método introduce un archivo malicioso a través de un archivo ZIP que, al ser descargado e instalado, infecta el sistema de la víctima.
Este malware fue generado utilizando múltiples cuentas de ChatGPT, lo que permitió a los hackers desarrollar y depurar el código de manera eficiente.
Asimismo, en Irán, un grupo conocido como CyberAv3ngers utilizó ChatGPT para explotar vulnerabilidades en sistemas macOS y robar contraseñas.
De forma similar, el grupo iraní Storm-0817 desarrolló malware para Android, accediendo a contactos, registros de llamadas y el historial de navegación de sus víctimas.
Si bien los métodos utilizados no son completamente nuevos, la facilidad con la que los hackers pueden emplear la inteligencia artificial para perfeccionar sus ataques es alarmante.
Estas situaciones evidencian cómo personas con conocimientos en programación pueden aprovechar herramientas como ChatGPT para llevar a cabo ataques cibernéticos de alto impacto.
Debido a estos incidentes, OpenAI señaló que continuará reforzando su tecnología para evitar que sea utilizada con fines maliciosos.
Además, la compañía ha formado equipos especializados en ciberseguridad para compartir sus hallazgos con otras empresas tecnológicas y prevenir futuros ataques.
Sin embargo, OpenAI aclaró que no es solo responsabilidad suya; otras empresas que desarrollan inteligencia artificial generativa también deben fortalecer sus medidas de seguridad para evitar que esta tecnología se convierta en una herramienta clave para los cibercriminales.
Relacionado: Inteligencia artificial: entre beneficios y amenazas para la ciberseguridad de las empresas