A medida que la inteligencia artificial avanza a pasos de gigante, cada vez más hackers están recurriendo a esta tecnología para volver sus ataques más complejos, dañinos y difíciles de detectar.
Los avances de la inteligencia artificial están revolucionando diversas industrias como la salud, educación, retail, finanzas, publicidad y servicio al cliente, entre muchas otras, pero es imposible negar que al igual que cualquier otra tecnología, la IA es una herramienta y su impacto depende de cómo se utilice.
Desafortunadamente, los hackers están aprovechando los grandes avances en el sector y han comenzado a adoptar diversas técnicas impulsadas por esta tecnología para fortalecerse con el fin de vulnerar toda clase de sistemas, incluso algunos de los más sólidos y robustos, mediante el desarrollo de métodos de ataque cada vez más sofisticados y peligrosos.
¿Cómo está impactando la inteligencia artificial en los hackers?
Debido a lo anterior, en el 2023 se produjo un incremento notable de ciberataques, con aproximadamente 2,700 ataques efectivos, que cobraron más de 343 millones de víctimas. En comparación con el 2022, cuando se había registrado un récord en la cantidad de incidentes, el año pasado las violaciones de datos aumentaron un sorprendente 72%.
Según una encuesta realizada por la firma Built In, en la que participaron cientos de CISOs a nivel global, el 85% de los profesionales de la ciberseguridad atribuyen el aumento de incidentes al uso de IA generativa por parte de los actores maliciosos, ya que la gran capacidad de herramientas impulsadas por esta tecnología, les está permitiendo obtener una ventaja táctica sobre las empresas.
Además de lo anterior, un informe de la firma de seguridad digital CrowdStrike señala que los ataques que utilizan IA y aprendizaje automático han aumentado en un 30% en el último año. Esta tendencia subraya la creciente adopción de tecnologías avanzadas por parte de los hackers.
La realidad es que hoy en día las soluciones tradicionales de ciberseguridad ya no son suficientes para combatir los ataques sofisticados de los hackers, por lo que vale la pena mantenerse alerta y conocer las distintas formas en que los piratas informáticos están aprovechando la IA generativa para fortalecerse, con el fin de estar bien preparados para sus técnicas cada vez más complejas.
Deepfakes mucho más realistas
Los hackers han comenzado a utilizar modelos de IA generativa para crear imágenes, vídeos y audios falsos extremadamente realistas. Estos deepfakes se usan para realizar ataques dirigidos, con el fin de engañar a las víctimas para que revelen información confidencial o realicen transferencias de dinero.
La capacidad que han demostrado los modelos de IA para generar contenido falso sumamente convincente está volviendo a los deepfakes cada vez más peligrosos.
Recientemente un trabajador financiero de Honk Kong de un banco multinacional, cuyo nombre no fue revelado por cuestiones de seguridad, transfirió más de $200 millones de dólares de Hong Kong, equivalentes a más de $25 millones de USD, a unos estafadores que utilizaron tecnología deepfake para hacerse pasar por varios directivos del consejo de la empresa a través de una videollamada.
Automatización de los incidentes
Anteriormente, los ciberataques se basaban en métodos manuales estrictamente relacionados a cuestiones técnicas de sistemas específicos. Sin embargo, con la llegada de la inteligencia artificial generativa, surgieron nuevas herramientas automatizadas que facilitan a los hackers el lanzamiento de una mayor cantidad de ataques al mismo tiempo, lo que a su vez les permite aumentar su efectividad.
Por si fuera poco, los modelos de IA pueden escanear una enorme cantidad de datos para identificar vulnerabilidades en sistemas y aplicaciones.
Esta capacidad les permite a los hackers lanzar ataques masivos con una eficacia mejorada. La automatización reduce tanto el tiempo, como el esfuerzo necesario para encontrar puntos débiles en los sistemas de las potenciales víctimas, facilitando así la explotación de múltiples objetivos simultáneamente.
De hecho, la inteligencia artificial ha permitido que los hackers creen redes de bots conocida como “botnets” que utilizan IA para coordinar y ejecutar ataques distribuidos de denegación de servicio (DDoS), aumentando su efectividad y capacidad de adaptación. Estas botnets modifican su comportamiento en tiempo real para evitar ser detectadas y neutralizadas, volviéndose sumamente peligrosas.
Phishing más convincente
En la actualidad los ciberdelincuentes han comenzado a utilizar la IA para crear ataques de phishing más sofisticados y difíciles de detectar. Mediante modelos de IA generativa pueden escribir correos electrónicos falsos en los que los textos suenan realmente convincentes.
Recientemente, Microsoft y OpenAI publicaron una investigación conjunta a través de la cual detectaron que distintos grupos de hackers respaldados por Rusia, China, Corea del Norte e Irán, estuvieron utilizando ChatGPT y otros modelos avanzados de lenguaje de la firma de IA, para investigar objetivos, fortalecer sus técnicas de engaño y perfeccionar sus métodos de phishing.
La investigación encontró que un grupo de hackers norcoreano conocido como Thallium, estuvo utilizando ChatGPT para redactar y generar contenido que fue utilizado para campañas de phishing. Estos hackers estaban haciéndose pasar por instituciones académicas y ONGs de renombre con el objetivo de engañar a las víctimas mediante encuestas maliciosas que funcionaban como punto de entrada a sus sistemas.
Por otro lado, la IA tiene la capacidad de falsificar sitios web que parezcan legítimos. Existen herramientas que en cuestión de segundos extraen el código base de la página web para recrear su estructura, pero modificándolo ciertas cuestiones con base en las indicaciones de un ciberdelincuente, para así dar la impresión de acceso real a una plataforma legítima, cuando realmente es un sitio web malicioso utilizado para robar sus datos.
Procesamiento de enormes bases de datos
Los hackers han comenzado a usar algoritmos impulsados por IA y machine learning para analizar grandes cantidades de datos, lo que les permite identificar patrones y tendencias rápidamente que no son inmediatamente evidentes para los humanos.
Es realmente complicado detectar si un ataque fue motivado por un análisis avanzado de datos, sin embargo, está confirmado que esta clase de prácticas acelera significativamente el proceso de robo de información por parte de los piratas electrónicos, permitiéndoles realizar una mayor cantidad de ataques en menor tiempo.
¿Cómo deben responder las organizaciones?
A medida que los hackers continúan fortaleciendo sus métodos de ataque mediante nuevas técnicas impulsadas por IA, las organizaciones están obligadas a poner en marcha iniciativas que les permitan combatir esta clase de ataques y evitar sus consecuencias, desatando una especie de carrera armamentista entre los hackers contra los profesionales de la ciberseguridad.
Si bien la IA está volviendo más peligrosos a los hackers, también está ayudando a mejorar los sistemas de seguridad en las compañías. Por lo tanto, hay múltiples acciones y estrategias concretas que las empresas deben implementar para hacer frente a los ataques impulsados por IA, por ejemplo:
- Educar a los miembros de la organización sobre los riesgos de los ataques de phishing y cómo identificarlos.
- Implementar protocolos de autenticación sólidos, como la autenticación multifactorial o de back-end.
- Ejecutar herramientas anti phishing para detectar y prevenir ataques de phishing.
- Invertir en soluciones de ciberseguridad impulsadas por IA para detectar, prevenir y contrarrestar incidentes potenciados por esta misma tecnología.
- Asociarse con un proveedor de servicios de seguridad administrados que tenga la amplitud, el alcance y la infraestructura para contrarrestar los ataques impulsados por IA de la actualidad.
No cabe duda que los ciberataques impulsados por IA están transformando el panorama de la ciberseguridad, por lo que es fundamental que las empresas adopten programas integrales de protección mediante los cuales se incorporen políticas y estrategias de defensa que permitan estar a la vanguardia de los hackers en la era de la inteligencia artificial.