Protección de la privacidad de los datos en un panorama de amenazas impulsado por la IA: por Ellison Anne Williams

Sólo hay que leer rápidamente los titulares diarios de los medios para saber que colectivamente estamos montando una ola de inteligencia artificial. Pero a pesar de todos los beneficios de la IA (y son muchos), también hay desventajas a considerar, especialmente en los negocios. Si bien la IA ayuda a que las instituciones financieras sean más inteligentes, más rápidas y más eficientes, también hace que los delincuentes sean más inteligentes, más rápidos y más eficientes. Las mismas tecnologías que impulsan la innovación y mejoran la toma de decisiones también están ampliando el panorama de amenazas. Las organizaciones deben comprender los riesgos que puede presentar la IA y estar preparadas para tomar medidas proactivas para garantizar que operen de forma privada y segura.

Los datos son uno de los activos fundamentales de la optimización continua de la IA para los servicios financieros. La IA requiere un uso intensivo de datos, por lo que la disponibilidad de fuentes de datos más amplias y ricas para la capacitación y la evaluación/inferencia significa que hay más posibilidades de aprovechar la IA de manera efectiva para generar resultados comerciales significativos y positivos. El éxito en la IA adopta muchas formas, pero imagine el impacto de los modelos optimizados de aprendizaje automático (ML) para evaluar eficazmente el riesgo del cliente, reducir los falsos positivos y detectar actividades fraudulentas. O mejoras de procesos impulsadas por IA que respaldan la automatización y mejoran la eficiencia operativa. Estos avances pueden mejorar significativamente los resultados de las operaciones diarias y, en última instancia, los resultados de la organización.

Si bien el valor de la IA basada en datos es claro, no es difícil entender que aprovechar los recursos de datos para impulsar estos avances también puede introducir riesgos de exposición. Las instituciones financieras no sólo deben ser conscientes de las limitaciones regulatorias que gobiernan la industria, sino que también deben ser conscientes del mayor riesgo que un panorama de amenazas mejorado por la IA presenta para los activos de la organización, como la propiedad intelectual, la ventaja competitiva e incluso su reputación. con los consumidores. Es esencial que los beneficios logrados a través de la IA no se produzcan a costa de sacrificar la privacidad y la seguridad.

Como suele ser el caso, los riesgos asociados con avances tecnológicos como los que estamos viendo actualmente en la IA pueden compensarse con otros avances tecnológicos. Tecnologías de mejora de la privacidad (PET) son una familia de tecnologías particularmente equipadas para permitir, mejorar y preservar la confidencialidad de los datos durante todo su ciclo de vida. Para los casos de uso de IA, permiten a los usuarios entrenar y evaluar de forma segura modelos de aprendizaje automático utilizando fuentes de datos que abarcan silos y límites, incluidos conjuntos de datos interjurisdiccionales, de terceros y disponibles públicamente. Al proteger los datos durante el uso o procesamiento (Datos en Uso) y complementar las protecciones existentes para los Datos en Tránsito y los Datos en Reposo, los PET pueden
habilitar capacidades de IA que mejoran la toma de decisiones de las organizaciones de servicios financieros, protegen la privacidad y combaten riesgos legales, sociales y de seguridad global más amplios. Además de permitir este nuevo uso neto de los datos, los PET también ayudan a garantizar que los activos confidenciales, incluidos los modelos de aprendizaje automático entrenados en fuentes de datos reguladas, permanezcan protegidos en todas las etapas del ciclo de vida del procesamiento. Esto limita el mayor riesgo que presentan las amenazas más complejas en el panorama de la IA, como la suplantación de datos, el envenenamiento de modelos y el aprendizaje automático adversario.

Para comprender cómo los PET protegen la IA y reducen los riesgos que presenta en la práctica un panorama de amenazas impulsadas por la IA, veamos algunos ejemplos específicos de la industria de servicios financieros. Utilizando una tecnología central de la familia PET, Secure Multi-Party Computing (SMPC), las organizaciones pueden entrenar de forma segura modelos de ML en todas las jurisdicciones. Por ejemplo, un banco que busca enriquecer un modelo de riesgo de lavado de dinero utilizando conjuntos de datos ubicados en otra región debe proteger ese modelo durante la capacitación para garantizar la privacidad y seguridad de los datos regulados en los que se entrenó inicialmente el modelo y los datos regulados incluidos en el modelo. conjunto de datos interjurisdiccionales. Si el modelo queda expuesto durante el entrenamiento, es fácil para los adversarios aplicar ingeniería inversa al modelo para extraer información confidencial, poniendo a la organización en riesgo de violar las normas de privacidad. Esto significa que cualquier exposición del modelo en sí constituye responsabilidad directa; El PET elimina este riesgo. Al utilizar una solución de capacitación cifrada basada en PET, las empresas financieras pueden entrenar de forma segura modelos de aprendizaje automático en conjuntos de datos en otras jurisdicciones sin mover ni agregar los datos, mejorando así el modelo de riesgo y la toma de decisiones.

Otro miembro esencial de la familia PET, el cifrado homomórfico (HE), ayuda a proteger los modelos para que puedan operarse de forma segura fuera de los muros fiduciarios de la institución financiera. Los analistas pueden utilizar modelos de aprendizaje automático sensibles para extraer de forma segura información de fuentes de datos que residen en otras jurisdicciones o que son propiedad de terceros, incluso cuando utilizan modelos propietarios o regulados entrenados en datos. Por ejemplo, un banco puede desear mejorar su modelo de riesgo del cliente aprovechando conjuntos de datos de otra de sus jurisdicciones operativas. Actualmente, la localización de datos y otras regulaciones de privacidad limitan estos esfuerzos, incluso entre sucursales de un mismo banco, debido al riesgo de exposición de los datos regulados tanto al conjunto de datos ubicado en esa nueva jurisdicción como a los datos sensibles en los que se entrenó inicialmente el modelo. . Al utilizar HE para cifrar el modelo, la entidad puede evaluar de forma segura el modelo cifrado en múltiples jurisdicciones para enriquecer la precisión del modelo y mejorar los resultados al tiempo que garantiza el cumplimiento.

Con su uso cada vez mayor, la necesidad de una IA responsable, segura y confiable se ha vuelto más fuerte. Grupos globalmente influyentes, incluidos
Líderes del G7EL Casa Blancay representantes de 28 países que participaron en el Cumbre de seguridad de IA del Reino Unido Destacó que la IA segura es un área de importancia crítica para las empresas en todos los sectores verticales. Tecnologías como los PET desempeñan un papel clave a la hora de abordar este desafío al ayudar a garantizar la seguridad y mitigar los riesgos de privacidad de los datos, lo que permite a las instituciones financieras aprovechar con confianza la promesa de la IA a pesar de un panorama de amenazas cada vez mayor.