«Los grupos de delitos cibernéticos, los actores de amenazas de los Estados-nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial. A medida que surgen intentan comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar eludir».
Los grupos descubiertos por Microsoft y OpenAI han sido:
- Stronium está vinculado a la inteligencia militar rusa y usa LMM «para comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos». Se sabe que este grupo ha estado involucrado durante la guerra entre Rusia y Ucrania, así como en ataques contra la campaña presidencial de Hillary Clinton en el 2016.
- Thallium, grupo de hackers norcoreano que ha usado LLM para investigar vulnerabilidades informadas públicamente y apuntar a organizaciones, para ayudar en tareas básicas de programación y para redactar contenidos para campañas de phishing.
- Curium, grupo iraní, usó LLM para generar correos electrónicos de phishing e incluso códigos para evitar la detección por parte de aplicaciones antivirus.
- Grupos de hackers chinos usaron la LLM para investigaciones, secuencias de comandos, traducciones y para perfeccionar herramientas existentes.
Solución para ciberataques hechos con ChatGPT
Por el momento, ambas empresas tecnológicas mencionan que no se ha detectado aún un «ataque significativo» con LLM. Aunque las empresas ya han comenzado a cerrar todas las cuentas y activos asociados con estos grupos. Ante este nuevo problema que ha surgido con ChatGPT, Microsoft, está creando un Security Copilot, una IA diseñada para los profesionales de la ciberseguridad.