Microsoft y OpenAI mencionan que hackers usan ChatGPT para mejorar ciberataques
ChatGPT surgió como una de las primeras inteligencias artificiales en revolucionar el mercado tecnológico. Sin embargo, no todo el mundo usa de la mejora manera estas IA. Es así, cómo ahora Microsoft y OpenAI han revelado que hay piratas informáticos que están usando estos grandes modelos de lenguajes para afinar y mejorar sus ciberataques existentes.
En una reciente investigación publicada por ambas compañías tecnológicas han detectado intentos de grupos de hackers en Rusia, Corea del Norte, Irán y China. Estos usan ChatGPT para investigar objetivos, mejorar scripts y ayudar a desarrollar técnicas de ingeniería social.
«Los grupos de delitos cibernéticos, los actores de amenazas de los Estados-nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial. A medida que surgen intentan comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar eludir».
Los grupos descubiertos por Microsoft y OpenAI han sido:
- Stronium está vinculado a la inteligencia militar rusa y usa LMM «para comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos». Se sabe que este grupo ha estado involucrado durante la guerra entre Rusia y Ucrania, así como en ataques contra la campaña presidencial de Hillary Clinton en el 2016.
- Thallium, grupo de hackers norcoreano que ha usado LLM para investigar vulnerabilidades informadas públicamente y apuntar a organizaciones, para ayudar en tareas básicas de programación y para redactar contenidos para campañas de phishing.
- Curium, grupo iraní, usó LLM para generar correos electrónicos de phishing e incluso códigos para evitar la detección por parte de aplicaciones antivirus.
- Grupos de hackers chinos usaron la LLM para investigaciones, secuencias de comandos, traducciones y para perfeccionar herramientas existentes.
Solución para ciberataques hechos con ChatGPT
Por el momento, ambas empresas tecnológicas mencionan que no se ha detectado aún un «ataque significativo» con LLM. Aunque las empresas ya han comenzado a cerrar todas las cuentas y activos asociados con estos grupos. Ante este nuevo problema que ha surgido con ChatGPT, Microsoft, está creando un Security Copilot, una IA diseñada para los profesionales de la ciberseguridad.