El siguiente es un artículo y una opinión invitada de Manouk Termaaten, fundador y CEO de Vertical Studio AI
Los gobiernos usan la IA para la desinformación: uso contrario a la ética y la autoritaria con serias implicaciones para la libertad y la verdad en el mundo.
El hecho de que los estados nacionales usen IA para la desinformación tienen importantes implicaciones para la libertad de pensamiento, las elecciones libres y la soberanía de los adversarios extranjeros. Los gobiernos de todo el mundo usan esta tecnología para mantener las poblaciones en un estado constante de confusión.
China, por ejemplo, fue acusado por Taiwán del empleo de la IA generativa para ensuciar la nación isleña con un prado. Según la oficina de seguridad nacional de la isla, el objetivo es dividir al público de Taiwán. Taiwán considera la acción de más de un intento de socavar su soberanía.
En un informe enviado al Parlamento, la oficina de seguridad del país dijo que había descubierto más de medio millón de “mensajes controvertidos” en 2025, la mayoría de los cuales estaban en Facebook y Tiktok.
“Si bien la aplicación de la tecnología de IA se generaliza y madura, también se ha encontrado que el Partido Comunista Chino ha utilizado herramientas de IA para ayudar a la generación y difusión de mensajes controvertidos”, dijo el informe.
Muchos otros ejemplos de estados nacionales utilizan IA para fines de desinformación.
En 2024, la red Pravda respaldada por el estado de Rusia inundado La red mundial con 3.6 millones de artículos falsos. El objetivo? Manipular los modelos de IA para adoptar historias pro-Kremlin y, por lo tanto, influir en la opinión pública. Obviamente, Rusia considera a la IA como un medio para promover su propaganda e incluso objetivo Ciudadanos estadounidenses.
China también ejerció una influencia a través de AI en las elecciones de Taiwán en 2024, en las que las operaciones basadas en China crearon videos de Deepfake generados por IA para difundir la desinformación, incluida una historia artesanal de líder de Tsai-Wen. Microsoft llamado Este es el primer ejemplo conocido de un estado nación que utiliza materiales de IA para afectar el resultado de una elección extranjera.
Durante las elecciones presidenciales estadounidenses de 2020, Irán utilizó trolls orientados a la IA para crear campañas de desinformación específicas para desestabilizar los procesos democráticos estadounidenses. Estos esfuerzos han llevado a dos nacionales iraníes cargar Para amenazas y campañas de desinformación cibernética.
En 2023, los medios estatales venezolanos empleado Herramientas de IA para hacer videos de Deepfake con presentadores de noticias generados por IA para una cadena falsa en inglés destinada a difundir la propaganda progubernamental y mejorar la imagen del régimen venezolano en el país y en el extranjero.
Las elecciones de Eslovaquia en 2023 vieron el audio generado por AI publicado falsamente en representación de una llamada telefónica entre un periodista y el líder del partido político progresivo eslováquico en el que se discute el aparejo de las elecciones. Deepfake circuló antes de las elecciones y habría llevado a la pérdida del partido durante las elecciones.
Estados Unidos también se dedica a tales prácticas con una inversión pública en “Guerra cognitiva”, China quejas. El gobierno chino dice que las redes de robots IA transmiten falsas quejas y desinformación para dañar la reputación de China.
Obviamente, hay preocupaciones importantes sobre el uso de la IA por parte de los estados nacionales para interferir con los procesos políticos de otras naciones. Es una gran afrenta a la libertad individual al afectar los pensamientos y decisiones de las personas. Los estados nacionales pueden usar la IA como una herramienta de propaganda para extender su poder, limitando los derechos individuales.
La IA utilizada de esta manera socava el libre mercado de ideas. Elimina un debate abierto a favor de las cuentas gubernamentales, distorsionando los procesos políticos y evitando los honestos resultados electorales.
El uso de la IA por los gobiernos es solo otro ejemplo de los de la autoridad abusadora de su poder. Excepto ahora, la IA aumenta los problemas, lo que hace que los gobiernos sean capaces de engañar no solo a sus propias poblaciones, sino también a las poblaciones en el extranjero para creer que la renuencia. Es una pendiente resbaladiza hacia el totalitarismo.
Los individuos informados en Mally son una forma de coerción, y las poblaciones deben reconocer esta táctica y no caer en las prácticas engañosas llevadas a cabo por los gobiernos contra los ciudadanos.