Los ciberataques impulsados por inteligencia artificial están aumentando exponencialmente en la región de Asia y el Pacífico, especialmente aquellos que involucran deepfakes.
La Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC) ha identificado una variedad de amenazas relacionadas con la IA en su nuevo informe sobre el cibercrimen en el Sudeste Asiático. Las bandas de ciberdelincuentes utilizan IA generativa (GenAI) para crear mensajes de phishing en varios idiomas, chatbots que manipulan a las víctimas, desinformación masiva en redes socialesy documentos falsos para eludir los controles de conocimiento del cliente (KYC). Lo utilizan para impulsar malware polimórfico que puede evadir el software de seguridad e identificar objetivos ideales, entre otras actividades nefastas.
La principal amenaza, sin embargo, son los deepfakes. De febrero a junio de 2024, la UNODC observó un aumento del 600 % en las menciones de deepfakes en canales de Telegram y foros clandestinos de ciberdelincuentes. Y va más allá de la elevada actividad de 2023, cuando los delitos de deepfake aumentaron más de un 1.500% respecto al año anterior y las inyecciones de intercambio de rostros aumentaron un 704% en la segunda mitad del año en comparación con la primera.
Proliferan los ataques deepfake
Los líderes de ciberseguridad en la región de Asia y el Pacífico, al igual que los de todo el mundo, anticipan una ola de problemas cibernéticos impulsados por la IA. en un Encuesta de Cloudflare centrada en Asia publicado el 9 de octubre, el 50% de los encuestados dijo que espera que se utilice IA para descifrar contraseñas y cifrado, el 47% espera que impulse el phishing y la ingeniería social, y el 44% cree que estimulará los ataques distribuidos de denegación de servicio (DDoS). Además, el 40% cree que se utiliza para crear deepfakes y respaldar violaciones de la privacidad.
Sin embargo, la mayoría de estas preocupaciones, si no todas, ya no son teóricas. algunas organizaciones pueden dar fe.
En enero, por ejemplo, un empleado de la oficina de Hong Kong de Arup, una empresa de ingeniería británica, recibió un correo electrónico que supuestamente provenía del director financiero (CFO) de la empresa en Londres. El director financiero pidió al empleado que realizara una transacción financiera secreta. Luego, el empleado se unió a una videoconferencia con el director financiero y otros participantes que se hacían pasar por miembros de la alta dirección, pero que en realidad eran todos deepfakes. El resultado: en mayo, Arup informó haber perdido 200 millones de dólares de Hong Kong (25,6 millones de dólares).
Los deepfakes de importantes figuras políticas se han generalizado, como las grabaciones de vídeo y audio falsas del Primer Ministro y el Viceprimer Ministro de Singapur en diciembre de 2023, y el vídeo falso de julio pasado que muestra a un jefe de Estado del sudeste asiático consumiendo drogas ilegales. En Tailandia, una mujer policía fue falsificada como parte de una campaña que hacía creer a las víctimas que estaban hablando con agentes reales de la ley.
Según la ONUDD, la mitad de todos los delitos de deepfake denunciados en Asia en 2023 provinieron de Vietnam (25,3%) y Japón (23,4%), pero el aumento más rápido de casos provino de Filipinas, que experimentó un 4.500% más en 2023 que en 2022. .
Todo esto se basa en un vasto ecosistema de desarrolladores y compradores maliciosos, en Telegram y en rincones aún más oscuros de la Deep Web. La ONUDD ha identificado más de 10 proveedores de software deepfake que prestan servicios específicamente a grupos de ciberdelincuentes en el sudeste asiático. Sus ofertas incorporan las últimas y mejores tecnologías deepfake, como MediaPipe Face Landmarker de Google, que captura expresiones faciales detalladas en tiempo real, el modelo de detección de objetos You Only Look Once v5 (YOLOv5) y mucho más.
¿Por qué Asia está sufriendo?
Aunque el cibercrimen impulsado por la IA amenaza a las organizaciones en todas partes, disfruta de algunas ventajas particulares en Asia.
“El sudeste asiático está muy densamente poblado y una gran parte de la población no sabe inglés o el inglés no es su lengua materna”, señala Shashank Shekhar, editor jefe de CloudSEK, con sede en India. Las señales típicas que podrían indicar una estafa para un hablante nativo de inglés podrían no traducirse para un hablante no nativo. Además, señala, “mucha gente está en paro, buscando trabajo, buscando oportunidades”.
La desesperación tiene el efecto de debilitar las defensas de las víctimas. “Hay ciertos tipos de estafas que sólo funcionan bien en esta parte del mundo”, afirma Anirudh Batra, investigador de amenazas de CloudSEK. “Las estafas más simples están especialmente extendidas debido a la pobreza en esta parte del mundo”.
Frente a fuerzas socioeconómicas intratables, estas viejas y trilladas líneas sobre cibereducación e higiene pueden no parecer suficientes. En lugar de ello, será necesario bloquear a los ciberdelincuentes en la fuente: en los foros y canales clandestinos donde comercializan sus herramientas deepfake y sus ganancias en criptomonedas. Esto ya se ha hecho.
“Es posible mediante la colaboración: diferentes países se unen y comparten inteligencia”, afirma Batra. Pero advierte: “Si no atrapan a estos tipos, mañana aparecerá otro foro. Se vuelve muy difícil detenerlos, porque los actores de amenazas saben que las tres agencias de letras están mirando los foros: todos están mirando todo. Por eso mantienen muchas copias de seguridad en todo momento, por lo que [their assets are] agarrado, comenzarán de nuevo con el espejo.
