NYDFS emite directrices para combatir los riesgos de ciberseguridad relacionados con la IA

EL Departamento de Servicios Financieros del Estado de Nueva York (DFS) ha emitido nuevos consejo para ayudar a las entidades reguladas por DFS a abordar y combatir los riesgos de ciberseguridad derivados de la inteligencia artificial (IA).

“La IA ha mejorado la capacidad de las empresas para mejorar sus estrategias de detección de amenazas y respuesta a incidentes, al mismo tiempo que crea nuevas oportunidades para que los ciberdelincuentes cometan delitos a mayor escala y más rápido”, dijo el superintendente del DFS. Adrienne Harris dijo un miércoles (16 de octubre) presione soltar. “Nueva York seguirá garantizando que a medida que las herramientas basadas en IA se vuelvan más prolíficas, los estándares de seguridad sigan siendo rigurosos para proteger los datos críticos, al tiempo que permitan la flexibilidad para cumplir con diversos perfiles de riesgo en un panorama digital en constante evolución. »

Las directrices no imponen nuevos requisitos, según el comunicado. En cambio, ayuda a las instituciones reguladas por DFS a cumplir con sus obligaciones existentes según las regulaciones de ciberseguridad.

Según estas regulaciones, las instituciones evalúan y abordan sus riesgos de ciberseguridad, incluidos los que surgen de la IA, e implementan múltiples capas de controles de seguridad con protecciones superpuestas, de modo que, en caso de que un control falle, existan otros para contrarrestar un ataque de ciberseguridad. , decía el comunicado.

Los controles y medidas que mitigan las amenazas relacionadas con la IA incluyen la evaluación de riesgos y programas, políticas, procedimientos y planes basados ​​en riesgos; gestión de proveedores y proveedores de servicios de terceros; controles de acceso; formación en ciberseguridad; un proceso de seguimiento para detectar nuevas vulnerabilidades de seguridad; y gestión de datos, de acuerdo con las directrices.

La guía establece que los riesgos de seguridad específicos de la IA incluyen ingeniería social, aumento de los ciberataques, robo de información no pública y mayores vulnerabilidades debido a las dependencias de la cadena de suministro, según el comunicado.

“A medida que la IA siga evolucionando, los riesgos de ciberseguridad relacionados con la IA también evolucionarán”, afirma la guía. “Detectar y responder a amenazas relacionadas con la IA requerirá contramedidas igualmente sofisticadas, por lo que es esencial que las entidades cubiertas revisen y reevalúen sus programas y controles de ciberseguridad a intervalos regulares como lo requiere la parte 500”.

El noventa y tres por ciento de los adquirentes que utilizan IA para detectar fraude dijeron que el fraude aumentó durante el año pasado, según “AI in Focus: Waging Digital Warfare Against Payments Fraud”, una colaboración de PYMNTS Intelligence con BrighteriónA tarjeta MasterCard negocio.

El informe también revela que el 60% de los bancos adquirentes dicen que los sistemas de inteligencia artificial son sus herramientas de detección de fraude más importantes y el 75% de los adquirentes utilizan la inteligencia artificial para detectar transacciones fraudulentas.