Información más allá del DBIR de Verizon

COMENTARIO

El Informe de investigaciones de violaciones de datos (DBIR) de Verizon es un informe anual altamente creíble que proporciona información valiosa sobre violaciones de datos y amenazas cibernéticas basada en análisis de incidentes reales. Los profesionales de la ciberseguridad confían en este informe para informar las estrategias de seguridad basadas en las tendencias en el panorama de amenazas en constante cambio. 2024 DBI planteó algunas preguntas interesantes, particularmente en relación con el papel de la IA generativa en los ciberataques.

La posición del DBIR sobre la IA generativa

Los autores del último DBIR dicen que los investigadores “han estado atentos a cualquier indicio del uso del campo emergente de la inteligencia artificial generativa (GenAI) en ataques y los efectos potenciales de estas tecnologías, pero no se ha materializado nada”. en los datos de incidentes que recopilamos a nivel mundial”.

Si bien no tengo ninguna duda de que esta afirmación es precisa dados los métodos específicos de recopilación de datos de Verizon, contrasta marcadamente con lo que estamos observando sobre el terreno. La principal advertencia a la declaración general de Verizon sobre GenAI se encuentra en el Anexo DBIR de 2024, donde se menciona una investigación del Servicio Secreto que encontró que GenAI es una “tecnología crucial” para los atacantes que no hablan inglés.

Sin embargo, en SlashNext hemos observado que el Impacto real de GenAI en los ciberataques Esto va mucho más allá de este caso de uso. A continuación se muestran seis casos de uso diferentes que hemos visto “en la naturaleza”.

Seis casos de uso de la IA generativa en el ciberdelito

1. Correos electrónicos de phishing basados ​​en IA

Los investigadores de ciberamenazas han observado que los ciberdelincuentes comparten guías sobre cómo utilizar GenAI y herramientas de traducción para mejorar la eficacia de los correos electrónicos de phishing. En estos foros, los piratas informáticos sugieren utilizar ChatGPT para generar correos electrónicos profesionales y brindar consejos a hablantes no nativos para crear mensajes más atractivos. El phishing ya es uno de los tipos de ataques más prolíficos, e incluso según el DBIR de Verizon, a un usuario solo le toma un promedio de 21 segundos hacer clic en un enlace malicioso en un correo electrónico de phishing una vez que se abre el correo electrónico, y solo 28 segundos más. para que el usuario revele sus datos. Los atacantes que aprovechan GenAI para crear correos electrónicos de phishing solo hacen que estos ataques sean más convincentes y efectivos.

2. Generación de malware asistida por IA

Los piratas informáticos están explorando el uso de la IA para desarrollar malware, como registradores de pulsaciones de teclas que pueden ejecutarse en segundo plano sin ser detectados. Le pidieron a WormGPT, un modelo de lenguaje extendido (LLM) basado en inteligencia artificial, que los ayudara a crear un registrador de teclas utilizando Python como lenguaje de codificación. Esto muestra cómo los ciberdelincuentes aprovechan las herramientas de inteligencia artificial para optimizar y mejorar sus actividades maliciosas. Al utilizar la IA para ayudar con la codificación, los atacantes pueden crear malware que sea más sofisticado y más difícil de detectar.

3. Sitios web fraudulentos generados por IA

Los ciberdelincuentes utilizan redes neuronales para crear una serie de páginas web fraudulentas, o “puertas de entrada llave en mano”, diseñadas para redirigir a víctimas desprevenidas a sitios web fraudulentos. Estas páginas generadas por IA a menudo imitan sitios legítimos, pero contienen elementos maliciosos ocultos. Al aprovechar las redes neuronales, los atacantes pueden producir rápidamente una gran cantidad de páginas falsas convincentes, cada una ligeramente diferente para evadir la detección. Este enfoque automatizado permite a los ciberdelincuentes extender una red más amplia, atrapando potencialmente a más víctimas en sus esquemas de phishing.

4. Deepfakes para evitar la verificación de cuenta

Los investigadores de SlashNext observaron proveedores en la Dark Web que ofrecen servicios que crean deepfakes Los ciberdelincuentes están utilizando la IA para eludir los procesos de verificación de cuentas de los bancos y las bolsas de criptomonedas. Estas herramientas se utilizan para eludir las pautas de “conozca a su cliente” (KYC). Esta alarmante tendencia muestra cómo los deepfakes generados por IA están evolucionando más allá de la ingeniería social y las campañas de desinformación para convertirse en herramientas para el fraude financiero. Los delincuentes utilizan inteligencia artificial avanzada para crear imitaciones realistas de video y audio, engañando a los sistemas de seguridad que dependen de la verificación biométrica.

5. Suplantación de voz impulsada por IA

Los ciberdelincuentes comparten información sobre cómo usa IA para falsificar y clonar voces Los clones de voz generados por IA se utilizan en diversos delitos cibernéticos. Esta amenaza emergente aprovecha algoritmos avanzados de aprendizaje automático para recrear voces humanas con una precisión sorprendente. Los atacantes pueden utilizar estos clones de voz generados por IA para hacerse pasar por ejecutivos, familiares o figuras de autoridad en ataques de ingeniería social. Por ejemplo, pueden realizar llamadas telefónicas fraudulentas para autorizar transferencias de fondos, eludir los sistemas de seguridad basados ​​en voz o manipular a las víctimas para que revelen información confidencial.

6. Bots de contraseña de un solo uso mejorados con IA

La inteligencia artificial está integrada en bots de contraseña de un solo uso (OTP) para crear patrones de phishing de voz. Estas sofisticadas herramientas incluyen funciones como voces personalizadas, identificadores de llamadas falsificados y sistemas interactivos de respuesta de voz. La función de voz personalizada permite a los delincuentes hacerse pasar por entidades confiables o incluso por individuos específicos, mientras que los identificadores de llamadas falsificados otorgan credibilidad adicional a la estafa. Los sistemas interactivos de respuesta de voz añaden una capa adicional de realismo, haciendo que las llamadas falsas sean casi indistinguibles de las legítimas. Este enfoque basado en IA no solo aumenta la tasa de éxito de los intentos de phishing, sino que también dificulta que los sistemas de seguridad y las personas detecten y prevengan dichos ataques.

Si bien estoy de acuerdo con DBIR en que existe mucho interés en la IA en el ámbito de la ciberseguridad, es fundamental no subestimar el impacto potencial de la IA generativa en el panorama de amenazas. La evidencia anecdótica presentada anteriormente demuestra que los ciberdelincuentes están explorando e implementando activamente métodos de ataque basados ​​en IA.

Mirando hacia el futuro

Las organizaciones deben adoptar una postura proactiva respecto de la IA en la ciberseguridad. Aunque el volumen de ataques que utilizan IA es actualmente bajo en las bases de datos oficiales, nuestros datos anecdóticos sugieren que la amenaza es real y está creciendo. De cara al futuro, es fundamental hacer lo siguiente:

  • Manténgase actualizado con los últimos avances en IA y ciberseguridad

  • Invierta en soluciones de seguridad basadas en IA que puedan demostrar beneficios claros

  • Evaluar y mejorar continuamente los procesos de seguridad para abordar las amenazas en evolución

  • Esté atento a los nuevos vectores de ataque que aprovechan las tecnologías de IA

Si bien respetamos los hallazgos del DBIR, creemos que la falta de datos abundantes sobre los ataques de IA en los informes oficiales no debería impedirnos prepararnos y mitigar posibles amenazas futuras, especialmente porque las tecnologías GenAI solo han estado ampliamente disponibles en los últimos dos años. La evidencia anecdótica que hemos presentado resalta la necesidad de una vigilancia continua y medidas proactivas.