El FBI comparte consejos sobre cómo combatir los esquemas de fraude basados ​​en IA

El FBI advierte que los estafadores utilizan cada vez más la inteligencia artificial para mejorar la calidad y eficacia de sus esquemas de fraude en línea, que van desde estafas románticas y de inversión hasta esquemas de contratación.

“El FBI advierte al público que los delincuentes están aprovechando la inteligencia artificial (IA) generativa para cometer fraude a mayor escala, aumentando la credibilidad de sus planes”. lee el anuncio de servicio público.

“La IA generativa reduce el tiempo y el esfuerzo que los delincuentes deben dedicar a engañar a sus objetivos”.

El anuncio de servicio público presenta varios ejemplos de campañas de fraude asistidas por IA, así como muchos temas y señuelos de uso común para ayudar a crear conciencia.

La agencia también compartió consejos para identificar y defenderse de estas estafas.

Patrones comunes

Las herramientas de IA generativa son ayudas legales perfectas para ayudar a las personas a generar contenido. Sin embargo, pueden utilizarse indebidamente para facilitar delitos como el fraude y la extorsión, advierte el FBI.

Esta actividad potencialmente maliciosa incluye texto, imágenes, audio, clonación de voz y videos.

Algunos de los patrones comunes que la agencia ha descubierto recientemente incluyen:

  1. Uso de texto, imágenes y videos generados por IA para crear perfiles realistas en redes sociales para ingeniería social, phishing, estafas románticas y esquemas de fraude de inversiones.
  2. Usar videos, imágenes y texto generados por IA para hacerse pasar por agentes del orden, ejecutivos u otras figuras de autoridad en comunicaciones en tiempo real para solicitar pagos o información.
  3. Texto, imágenes y vídeos generados por IA se utilizan en materiales promocionales y en sitios web para atraer a las víctimas a esquemas de inversión fraudulentos, incluido el fraude con criptomonedas.
  4. Crear imágenes o videos pornográficos falsos de víctimas o figuras públicas para extorsionar dinero.
  5. Genere imágenes o vídeos realistas de desastres naturales o conflictos para solicitar donaciones para organizaciones benéficas falsas.

La inteligencia artificial se ha utilizado ampliamente durante más de un año para crear estafas con criptomonedas con vídeos falsos de celebridades populares como Elon Musk.

Estafas criptográficas deepfake en TikTok
Fuente: BleepingComputer

Más recientemente, Google Mandiant informó que los científicos informáticos norcoreanos están utilizando inteligencia artificial para crear personajes e imágenes que parecen ciudadanos no norcoreanos con el fin de obtener empleo en organizaciones de todo el mundo.

Una vez contratados, estos individuos se utilizan para generar ingresos para el régimen norcoreano, realizar ciberespionaje o incluso intentar implementar malware para robar información en redes corporativas.

consejo del fbi

Aunque las herramientas de IA generativa pueden aumentar la credibilidad de los esquemas fraudulentos a un nivel que hace muy difícil distinguirlos de la realidad, el FBI ofrece ciertas medidas que pueden resultar útiles en la mayoría de las situaciones.

Estos se resumen a continuación:

  • Crea una palabra o frase secreta con tu familia para verificar tu identidad.
  • Busque imperfecciones sutiles en imágenes/videos (por ejemplo, manos distorsionadas, rostros irregulares, sombras extrañas o movimientos poco realistas).
  • Escuche tonos poco naturales o elección de palabras en las llamadas para detectar la clonación de voz generada por IA.
  • Limitar el contenido público de su imagen/voz; configure las cuentas de redes sociales como privadas y limite los seguidores a personas en las que confíe.
  • Verifique a las personas que llaman colgando, buscando la organización reclamada y volviendo a llamar usando un número oficial.
  • Nunca comparta información confidencial con extraños en línea o por teléfono.
  • Evite enviar dinero, tarjetas de regalo o criptomonedas a personas no verificadas.

Si cree que ha sido contactado por estafadores o víctima de un plan fraudulento, se le recomienda que repórtalo al IC3.

Cuando envíe su informe, incluya toda la información sobre la persona que se comunicó con usted, las transacciones financieras y los detalles de la interacción.

Exit mobile version