Los reguladores combaten los deepfakes con normas antifraude

A medida que los deepfakes generados por IA se vuelven más sofisticados, los reguladores están recurriendo a las normas existentes sobre fraude y prácticas engañosas para combatir el abuso. Aunque ninguna ley federal aborda específicamente los deepfakes, agencias como la FTC y la SEC están implementando soluciones creativas para mitigar estos riesgos.

La calidad de los deepfakes generados por IA es asombrosa. “Ya no podemos creer lo que vemos. Lo que ves no es real”, afirma Yu Chen, profesor de la Universidad de Binghamton. Se están desarrollando herramientas en tiempo real para distinguir una imagen auténtica de una deepfake. Pero incluso si un usuario sabe que una imagen no es real, persisten los desafíos.

“Usar herramientas de inteligencia artificial para engañar, engañar o defraudar a las personas es ilegal”, dijo en septiembre la presidenta de la Comisión Federal de Comercio, Lina M. Kahn. Las herramientas de IA utilizadas para fraude o engaño están sujetas a las leyes aplicables, y Khan ha dejado claro que la FTC perseguirá a los estafadores de IA.

Intención: fraude y engaño

Los deepfakes se pueden utilizar para otras prácticas comerciales corporativas desleales, como crear una imagen falsa de un ejecutivo que anuncia que su empresa está tomando una medida que podría influir en los precios de las acciones. Por ejemplo, un deepfake podría afirmar que una empresa va a declararse en quiebra o realizar una adquisición. Si hay acciones involucradas, la SEC podría tomar medidas.

Cuando se crea un deepfake con el intención engañar, “es un elemento clásico del fraude”, dice Joanna Forster, socia del bufete de abogados Crowell & Morning y ex fiscal general adjunta de la Sección de Fraude Corporativo del Estado de California.

“Todos hemos visto en los últimos cuatro años una FTC muy activista en las áreas de antimonopolio y competencia, protección del consumidor y privacidad”, dijo Forster.

De hecho, un funcionario de la FTC, hablando entre bastidores, dice que la agencia está abordando activamente el problema. En abril, una norma sobre robo de identidad de un gobierno o empresa entró en vigor. La agencia también continúa sus esfuerzos en materia de clones de voz destinados a engañar y defraudar a las víctimas. La agencia tiene un blog de orientación empresarial que sigue a muchos de estos esfuerzos.

Varias leyes estatales y locales abordan los deepfakes y la privacidad, pero no existe una legislación federal ni reglas claras que definan qué agencia toma la iniciativa en su aplicación. A principios de octubre, el juez de distrito estadounidense John A. Méndez concedió una orden judicial preliminar que bloqueaba una ley de California contra los deepfakes relacionados con las elecciones. Aunque el juez reconoció que la IA y los deepfakes plantean riesgos importantes, la ley de California probablemente violó la Primera Enmienda, dijo Méndez. Actualmente, 45 estados, más el Distrito de Columbia, tienen leyes que prohíben el uso de deepfakes en las elecciones.

Desafíos de privacidad y responsabilidad

Existen pocas leyes que protejan a personas que no son celebridades o políticos de los deepfakes que violan su privacidad. Las leyes están escritas para proteger el rostro, la voz y los gestos de las celebridades. Esto se diferencia de un cómic que se hace pasar por una celebridad con fines de entretenimiento y en el que no existe ninguna intención de engañar a la audiencia. Sin embargo, si un deepfake intenta engañar al público, eso cruza la línea de la intención de engañar.

En el caso de un deepfake que no pertenece a una celebridad, no hay forma de demandar sin saber primero quién creó el deepfake, lo que no siempre es posible en Internet, explica Debbie Reynolds, experta en privacidad y directora ejecutiva de Debbie Reynolds Consulting. En algunos casos pueden aplicarse leyes sobre robo de identidad, pero el anonimato en Internet es difícil de superar. “Quizás nunca se sepa quién creó esto, pero este mal todavía existe”, dice Reynolds.

Si bien algunos estados están considerando leyes centradas específicamente en el uso de IA y deepfakes, la herramienta utilizada para el fraude o el engaño no es significativa, afirma Edward Lewis, director ejecutivo de CyXcel, una consultoría especializada en derecho de ciberseguridad y gestión de riesgos. Muchos líderes empresariales no se dan cuenta de lo fácil que es crear y distribuir deepfakes y otros contenidos generados por IA.

“No se trata tanto de qué necesito saber sobre los deepfakes; se trata más de quién tiene acceso y cómo controlamos ese acceso en el lugar de trabajo, porque no queremos que nuestro personal interactúe por razones inapropiadas con una IA”. dice Lewis. “En segundo lugar, ¿cuál es la política de nuestra empresa sobre el uso de la IA? ¿En qué contexto se puede o no utilizar y a quién le concedemos acceso a la IA para que pueda realizar su trabajo?

Lewis señala: “Es muy parecido a que tenemos controles sobre otros riesgos de ciberseguridad. Es necesario considerar los mismos controles en el contexto del uso de la IA. »

A medida que los deepfakes generados por IA se vuelven más sofisticados, los reguladores están trabajando para adaptarse aprovechando las leyes de privacidad y fraude existentes. Sin una legislación federal específica para los deepfakes, agencias como la FTC y la SEC están haciendo cumplir activamente las reglas contra el engaño, la suplantación y la suplantación de identidad. Pero persisten los desafíos en torno a la rendición de cuentas, la privacidad y el reconocimiento, lo que deja brechas que los individuos y las organizaciones deben superar. A medida que evolucionen los marcos regulatorios, las medidas proactivas, como las políticas de gobernanza de la IA y el monitoreo continuo, serán esenciales para mitigar los riesgos y preservar la confianza en el panorama digital.

Exit mobile version