Los bancos deben luchar contra los defectos con una mejor IA, dice Barr

Frente al aumento de los ataques generativos de profundos basados ​​en la IA, los bancos deben combatir el fuego con fuego e invertir más en inteligencia artificial. El gobernador de la Reserva Federal dijo el jueves.

Los bancos deben cambiar su uso de la IA para frustrar los ataques profundos con el uso del reconocimiento facial, el análisis vocal y la biometría conductual, dijo durante un evento alimentado por Nueva York, y se pueden usar soluciones técnicas para detectar inconsistencias sutiles que indican el uso de IA en audio o video que los observadores humanos pueden perderse.

Con Deepfakes, los cibercriminales usan una IA generativa para copiar la voz o la imagen de una persona, luego use esta voz o esta imagen para cometer fraude. Uno de cada 10 negocios ha experimentado un ataque de Deepfake, un 2024 Business.com Investigación encontrada.

“En el pasado, un falsificador calificado podría pasar un mal control al reproducir la firma de una persona. Ahora, el progreso de IA puede causar mucho más daño al reproducir la identidad total de una persona”, dijo Barr sobre Deepfakes, que tiene el “potencial para comer en exceso la identidad”.

Aunque los bancos a menudo usan la detección de votos como una herramienta de verificación de identidad, esta tecnología podría volverse vulnerable a las herramientas generativas de IA, dijo Barr.

“Si esta tecnología se vuelve más barata y más accesible para los delincuentes, y la tecnología de detección de fraude no sigue el ritmo, todos somos vulnerables a un ataque de profundo”, dijo.

El delito cibernético es un juego “asimétrico”, dijo Barr, en el que los estafadores pueden lanzar una gran red y encontrar éxito en la lástima de un pequeño número de víctimas sin demasiado costo.

Los bancos, por otro lado, deben “someterse a un examen riguroso y un proceso de prueba para establecer defensas cibernéticas efectivas y, por lo tanto, será más lento en el desarrollo de sus defensas”. Incluso cuando evitan muchos ataques, una sola falla siempre puede costarles, dijo.

“Si bien consideramos esta pregunta desde el punto de vista de la política, debemos tomar medidas para hacer que los ataques sean menos probables al aumentar el costo del ataque de los ciberdelincuentes y reducir los costos de defensa contra las instituciones financieras y la policía”, dijo.

Los bancos, según Barr, pueden usar análisis avanzados para informar actividades sospechosas y más actividad de revisión en profundidad que aumenta las banderas rojas. Y pueden invertir en controles humanos manteniendo al personal capacitado en riesgos emergentes.

No es que los bancos: los clientes y los reguladores también deben hacer su parte para evitar que dichos regímenes se asenten, dijo Barr.

Los clientes deben preguntar sobre los programas generalizados para hacer víctimas menos probables, y deben apreciar prácticas de seguridad sólidas en sus bancos e instituciones financieras, incluidos aquellos que agregan fricción a su experiencia, dijo.

Los reguladores, por su parte, pueden fortalecer la importancia de la ciberseguridad mediante “actualizaciones apropiadas de asesoramiento y regulaciones”, dijo. Los reguladores también deben examinar cómo la IA puede usarse de su lado para mejorar la capacidad de monitorear y detectar fraude en tiempo real.

“Esto podría ayudar a proporcionar advertencias tempranas a las instituciones afectadas y los participantes más amplios en la industria, así como para proteger nuestros propios sistemas”, dijo Barr.

Barr en otros contextos ha expresado previamente grandes esperanzas de las posibilidades de que la IA generativa prestará servicios bancarios en el futuro.

Aunque lo anterior puede ayudar a prevenir los ataques, Barr sugirió que los reguladores deberían trabajar con la policía nacional y global para hacer delitos cibernéticos como los ataques profundos más caros para los autores.

“El sector y los bancos oficiales deberían continuar sus esfuerzos para mejorar el intercambio de datos en fraude en el sector financiero y ayudar a las instituciones a reaccionar más rápidamente a las amenazas emergentes centradas en la generación de IA.

Exit mobile version