El siguiente es un mensaje de invitado de Felix XuFundador de Red de arpa.
El enfoque del gobierno estadounidense a la inteligencia artificial (IA) ha cambiado considerablemente, enfatizando la innovación acelerada en la vigilancia regulatoria. En particular, el decreto ejecutivo del presidente Donald Trump, Eliminar los obstáculos para el liderazgo estadounidense en inteligencia artificialDio un nuevo tono para el desarrollo de la IA, anclada en la promoción de la libertad de expresión y el progreso del progreso tecnológico. Del mismo modo, vicepresidente estadounidense JD VanceLa negativa de la aprobación de un acuerdo de seguridad global de IA indica que Estados Unidos favorecerá la innovación sin comprometer su ventaja competitiva.
Sin embargo, a medida que los sistemas de IA se están volviendo cada vez más influyentes en los mercados financieros, la infraestructura crítica y el discurso público, la pregunta sigue siendo: ¿cómo podemos garantizar la confianza y la confiabilidad de las decisiones y los resultados centrados en los modelos de IA sin sofocar la innovación?
Es allí donde entra en juego la IA verificable, ofreciendo un enfoque de IA transparente y criptográficamente seguro que garantiza la responsabilidad sin respuesta.
El desafío de la IA sin transparencia
El rápido avance de la IA inauguró una nueva era de agentes inteligentes de IA capaces de hacer decisiones complejas y autónomas. Pero sin transparencia, estos sistemas pueden volverse impredecibles e inexplicables.
Por ejemplo, los agentes de IA financieros, que se basan en modelos sofisticados de aprendizaje automático para analizar grandes conjuntos de datos, ahora operan bajo menos requisitos de divulgación. Aunque esto fomenta la innovación, esto también aumenta una brecha de confianza: sin una visión general de cómo estos agentes de IA llegan a sus conclusiones, las empresas y los usuarios pueden tener problemas para verificar su precisión y confiabilidad.
Un accidente de mercado provocado por la toma de decisión errónea de un modelo de IA no es solo un riesgo teórico, es posible que los modelos de IA se implementen sin garantías verificables. El desafío no consiste en desacelerar el progreso de la IA, sino garantizar que sus resultados puedan ser probados, validados y confiables.
Como dijo el famoso psicólogo de Harvard un día, Skinner, “el verdadero problema no es si las máquinas piensan, sino si los hombres lo hacen”. En la IA, el problema clave no es solo cuán inteligentes son estos sistemas, sino cómo los humanos pueden verificar y confiar en su inteligencia.
Cómo verificar la brecha de confianza
Russel Wald, Director Ejecutivo del Instituto Stanford para la Inteligencia Artificial centrada en Human, resumen El enfoque de AI americano:
“La seguridad no será el objetivo principal, pero en cambio, será una innovación acelerada y la convicción de que la tecnología es una oportunidad”.
Esta es precisamente la razón por la cual la IA verificable es crucial. Permite la innovación de la IA sin comprometer la confianza, asegurando que los resultados de la IA se puedan validar en un descentralizado y la realización de la confidencialidad.
La IA verificable utiliza técnicas criptográficas como el conocimiento cero del conocimiento (ZKP) y el aprendizaje automático de cero conocimiento (ZKML) para dar confianza a los usuarios en las decisiones de IA sin exponer datos propietarios.
- Los ZKP permiten que los sistemas AI generen evidencia criptográfica que confirme que una salida es legítima sin revelar los datos o procesos subyacentes. Esto garantiza la integridad incluso en un entorno con un mínimo de monitoreo regulatorio.
- ZKML trae modelos verificables de IA en una cadena, lo que permite salidas de IA sin confianza que son matemáticamente comprobables. Esto es particularmente esencial para los oráculos de IA y la toma de decisiones basada en datos en industrias como finanzas, atención médica y gobernanza.
- ZK-Snarks convierte los cálculos de IA en evidencia verificable, asegurando que los modelos de IA funcionen de manera segura mientras protegen los derechos de propiedad intelectual y la confidencialidad del usuario.
Esencialmente, la IA verificable proporciona una capa de verificación independiente, asegurando que los sistemas de IA sigan siendo transparentes, responsables y probablemente exactos.
AI Verificable: el futuro de la responsabilidad de AI
La trayectoria de la IA americana se define para Innovación agresiva. Pero en lugar de confiar únicamente en la vigilancia del gobierno, la industria debe defender soluciones tecnológicas que garanticen el progreso y la confianza.
Algunas compañías pueden aprovechar la regulación de IA suelta para lanzar productos sin una verificación de seguridad adecuada. Sin embargo, el IA verificable ofrece un poderoso empoderamiento alternativo de empoderamiento y individuos para construir sistemas de IA que sean demostrables, confiables y resistentes al mal uso.
En un mundo donde la IA toma más y más decisiones consecutivas, la solución no es reducir la velocidad del progreso, es hacer que la IA sea verificable. Esta es la clave para garantizar que la IA siga siendo una fuerza para la innovación, la confianza y el impacto mundial del mundo.
Mencionado en este artículo


