Tras una investigación conjunta, Microsoft y OpenAI expusieron cómo distintos grupos de hackers de Rusia, China e Irán han estado intentando aprovechar su tecnología para perfeccionar sus técnicas de ataque.
Una nueva investigación publicada el miércoles 14 de febrero de 2024 por Microsoft y OpenAI acerca de las amenazas emergentes de ciberseguridad en la era de la inteligencia artificial, descubrió que distintos grupos de hackers respaldados por Rusia, China, Corea del Norte e Irán, han estado utilizando ChatGPT y otros modelos avanzados de lenguaje de la firma de IA, para investigar objetivos, fortalecer sus técnicas de engaño y perfeccionar sus métodos de ataque.
“Nuestra investigación apunta a que los grupos de delitos cibernéticos, los actores de amenazas de los Estados-nación y otros adversarios han estado explorando y poniendo a prueba distintas tecnologías impulsadas por inteligencia artificial a medida que surgen, intentando aumentar el valor y la eficiencia de sus ciberataques, así como para eludir los controles de seguridad de sus víctimas”, escribió Microsoft al respecto en una publicación de blog.
¿Cómo aprovechan los hackers la inteligencia artificial de Microsoft y OpenAI para sus ciberataques?
En el informe el gigante del software detalló distintas formas en que algunos actores de amenazas estuvieron utilizando los modelos avanzados de lenguaje de OpenAI para potencializar sus ciberataques en los últimos meses. No obstante, Microsoft aclaró que tras detectar estas malas prácticas, les desactivó todas las cuentas y los accesos a las herramientas de inteligencia artificial de la compañía a todos estos cibercriminales.
Un grupo de hackers llamado Strontium, vinculado a la inteligencia militar rusa, ha estado utilizando un modelo avanzado de lenguaje para intervenir varias tecnologías de satélites pertenecientes a operaciones militares ucranianas, con el fin de extraer información clave de sus protocolos de comunicación, sus imágenes de radar y parámetros técnicos de seguridad que les permitan adquirir un conocimiento profundo tanto del funcionamiento como de las capacidades de los satélites.
Estos hackers respaldados por el estado ruso, también han estado usando la inteligencia artificial para automatizar algunas tareas básicas para ciertos ciberataques incluyendo “la manipulación de archivos, la escritura de código falso y el multiprocesamiento para optimizar sus operaciones técnicas”, según Microsoft.
Mientras tanto, un grupo de hackers norcoreano conocido como Thallium, recurrió a ChatGPT para la redacción y generación de contenido escrito que fue utilizado para campañas de phishing. Mediante su investigación, Microsoft descubrió que estaban haciéndose pasar por instituciones académicas y ONGs de renombre con el objetivo de engañar a las víctimas mediante encuestas maliciosas que funcionaban como punto de entrada a sus sistemas.
Así mismo Curium, una unidad de piratas informáticos iraníes relacionado con la Guardia Revolucionaria Islámica también estuvieron utilizando ChatGPT para generar correos electrónicos de phishing e incluso crear códigos para burlar los protocolos de seguridad de sus víctimas.
Por su parte, los hackers afiliados al estado chino conocidos como Chromium, también estuvieron experimentando con modelos avanzados de lenguaje para generar sitios web falsos a través de los cuales buscaban obtener información clave sobre agencias de inteligencia de otros países, así como identificar vulnerabilidades en las soluciones de ciberseguridad de las empresas para realizar ataques dirigidos.
Preparándose para el futuro
Microsoft y OpenAI argumentan en el estudio que identificaron las malas prácticas en etapa inicial, por lo que según ambas compañías no se alcanzaron a realizar “ataques significativos” potenciados por sus modelos de lenguaje avanzado.
A pesar de lo anterior, el vicepresidente de seguridad del cliente de Microsoft, Tom Burt, resaltó la importancia de publicar su investigación para “exponer cómo los actores de amenazas están buscando aprovechar la IA para fortalecerse y al mismo tiempo, compartirles a nuestros usuarios las técnicas que estamos implementando para contrarrestarlo.”
Finalmente, Burt aseguró que en los próximos meses estará fortaleciendo los protocolos de seguridad contra ciberataques, los lineamientos para el uso responsable de sus herramientas de IA desarrolladas por el departamento de inteligencia contra amenazas de la compañía en asociación con los expertos de OpenAI.
Mientras tanto, el ejecutivo de Microsoft invitó a los usuarios a implementar soluciones de monitoreo que anticipan y bloquean las actividades maliciosas, tal como el nuevo Security Copilot.