Desde el amor virtual hasta las pérdidas reales: la creciente amenaza de estafas románticas alimentadas por AI

Las estafas en el romance en línea alcanzan nuevos niveles de engaño con inteligencia artificial (IA), transformando corazones llenos de esperanza de fraude sofisticado.

Según el Comisión de Comercio Federal, Las estafas románticas causaron pérdidas de más de $ 1.14 mil millones con la pérdida promedio por sobreviviente Is $ 2,000, lo que lo convierte en la estafa de impostor más cara.

Antes del día de San Valentín Dan Holmes, Experto e identidad de fraude senior Feedzai, Una plataforma en la nube para gestionar el riesgo financiero, advierte que estas estafas de IA mejoradas no solo son más comunes sino también más convincentes.

Dan Holmes, experto en fraude e identidad senior en Feedzai

Laissed durante 11 años, Debbie Fox ha construido una vida “robusta y completa” como un viajero apasionado, apasionado por la cultura, propietaria de la pequeña empresa y miembro de la comunidad dedicada.

Sin embargo, un área ha permanecido insatisfecho: su vida amorosa. Decidido a cambiar esto, Fox se ha unido a una plataforma de citas en línea, con la esperanza de encontrar la compañía y la conexión real.

Rápidamente conoció a Russell, un hombre cuyo perfil resonó con sus pasiones.

“Fue muy natural, muy orgánico”, recuerda Fox. “Pensé que estaba realmente interesado en mi vida, mi vida diaria e incluso en mi pasado. Fue maravilloso sentirse visto y escuchado.

Después de discutir la solicitud por unos días, Fox y Russell trasladaron su conversación a llamadas telefónicas y gatos de video. Sus conversaciones diarias y de una hora han creado un enlace fuerte. Fox creía que finalmente había encontrado eso.

Justo cuando su conexión se profundizó, Russell dejó caer una bomba: estaba en problemas y necesitaba dinero. “Pidió $ 58,000 en total”, dijo Fox. “Él dijo:” Estoy realmente avergonzado. No estoy acostumbrado a necesitar la ayuda de nadie. Espero que usted o alguien más en su círculo no piense en usted, pero estoy realmente en un atasco. »»

Inicialmente, Fox se negó. “No era una mujer de medios y no podía permitirme ayudar”, dijo. Pronto, Russell regresó con una solicitud más convincente, con una presunta documentación legal, un acuerdo de préstamo escrito por un abogado. Convencido por el sendero de papel y su aparente vulnerabilidad, Fox finalmente aceptó.

No pasó mucho tiempo antes de que apareciera la verdad. Hoy, Fox sabe que “Russell” no es su verdadero nombre. Aunque ella sigue siendo incierta sobre los detalles fabricados de su personalidad, que realmente le gustaba viajar u otras culturas, ahora entiende que él estaba dirigiendo una sofisticada operación de estafa.

Entonces, ¿cómo puede un criminal crear si una identidad falsa de manera convincente?

La IA generativa transforma el fraude al permitir que los delincuentes automaticen, de escala y refinen sus ataques con sofisticación sin precedentes y bajando las barreras a la entrada. Los estafadores pueden usar IA para desarrollar estafas muy convincentes, incluso engañando a la mayoría de las personas y empresas salvajes.

En consecuencia, el riesgo general de un problema de fraude ya significativo aumenta rápidamente. Deloitte proporciona Una aceleración rápida de las pérdidas de fraude después de la generación de la IA se vuelve actual.

Aquí hay algunos ejemplos de cómo los delincuentes explotan la generación de IA para su ganancia:

Deportes de voz y estafas de video: Las voces y videos de Deepfake generados por AI se utilizan para usurpar la identidad de los ejecutivos, representantes del banco o familiares, convencer a las víctimas de transferir dinero o revelar información confidencial.

Ataque de phishing personalizado: Correos electrónicos, SMS y mensajes de discusión generados por los estilos de comunicación reales de Iimitation, lo que hace que las estafas de phishing sean más creíbles y la retirada de las banderas rojas que los bancos habían deseado anteriormente a los consumidores.

Identidades sintéticas: Los estafadores usan IA para generar identidades sintéticas realistas para abrir cuentas fraudulentas. Estas cuentas se pueden usar para realizar compras directamente o fondos fraudulentos de blanqueo.

Estafa automatizada llamadas: Los chatbots de IA pueden hacer llamadas de estafa en tiempo real, imitar la conversación humana y adaptar las respuestas dinámicamente para manipular a las víctimas.

Una idea común común es que la IA es una nueva herramienta, pero de hecho, los bancos usan AI, en particular el aprendizaje automático, para combatir el fraude durante años. Sin embargo, la generación de IA y sus amenazas asociadas son nuevas.

Para frustrar los efectos negativos de la generación de IA, los bancos exploran el potencial de la generación de IA para proteger mejor a los consumidores. La adopción temprana se ha centrado en mejorar la eficiencia operativa, lo que permite a los bancos racionalizar la gestión de fraude y volver a desplegar los recursos para mayores tareas.

A largo plazo, la forma en que ayudaremos a proteger a las personas de las estafas de generación de IA es colaborar con la inteligencia compartida entre bancos y proveedores de tecnología, cuyas plataformas a menudo facilitan el fraude. Dos objetivos comunes: mejorar la protección del consumidor y salvar a la sociedad en su conjunto.

Exit mobile version