La siguiente es una posición de invitado y una opinión de Rob Viglione, CEO de Horizen Labs.
La inteligencia artificial ya no es un sueño de ciencia Agentes de IA al timón. Estos agentes pueden colaborar con un mínimo de vigilancia humana, y prometen una eficiencia e innovación sin precedentes. Pero a medida que proliferan, los riesgos también: ¿cómo nos aseguramos de hacer lo que pedimos, especialmente cuando se comunican entre sí y entrenan en datos confidenciales y distribuidos?
¿Qué sucede cuando los agentes de IA comparten registros médicos delicados y son pirateados? ¿O cuando se divulgan los datos confidenciales de la compañía sobre los canales de suministro riesgosos entre los agentes de IA y los barcos de carga se convierten en un objetivo? Todavía no hemos visto una historia importante como esta, pero esto es solo cuestión de tiempo, si no tomamos las precauciones apropiadas con nuestros datos y cómo la interfaz con él.
En el mundo de la IA de hoy, Pruebas de conocimiento cero (ZKPS) son una línea de vida práctica para domar los riesgos de los agentes de IA y los sistemas distribuidos. Serven como responsabilidad silenciosa, verificando que los agentes se adhieran a los protocolos, sin exponer los datos sin procesar detrás de sus decisiones. Los ZKP ya no son teóricos: ya están implementados para verificar el cumplimiento, proteger confidencialidadY aplicar la gobernanza sin sofocar la autonomía de la IA.
Durante años, nos hemos basado en hipótesis optimistas sobre el comportamiento de la IA, al igual que los rodillos optimistas como el árbitro y el optimismo suponen que las transacciones son válidas hasta que se demuestran. Pero cuando los agentes de IA ocupan roles más críticos (gestionan las cadenas de suministro, diagnostican a los pacientes y ejecutan los oficios, esta hipótesis es una bomba de tiempo. Necesitamos la verificabilidad final para salir, y los ZKP ofrecen una solución evolutiva para demostrar que nuestros agentes de IA siguen las órdenes, mientras mantienen sus datos privados y su independencia intacta.
La comunicación del agente requiere confidencialidad + verificabilidad
Imagine una red de agentes de IA que coordina una operación de logística global. Un agente optimiza las rutas de envío, otra solicitud de pronóstico y una tercera negocia con proveedores, todos los agentes que comparten datos confidenciales como precios y niveles de inventario.
Sin confidencialidad, esta colaboración puede exponer secretos comerciales a competidores o reguladores. Y sin verificabilidad, no podemos estar seguros de que cada agente respete las reglas, por ejemplo, priorizando los canales de envío amigables con el medio ambiente, según lo requiera la ley.
La evidencia de conocimiento cero resuelve este doble desafío. Los ZKP permiten a los agentes demostrar que respetan las reglas de gobierno sin revelar sus aportes subyacentes. Además, ZKP puede mantener la confidencialidad de los datos al tiempo que garantiza que los agentes tengan interacciones confiables.
No es solo una solución técnica; Este es un cambio de paradigma que garantiza que los ecosistemas IA pueden evolucionar sin comprometer la confidencialidad o la responsabilidad.
Sin verificación, las redes ML distribuidas son una bomba de tiempo
El aumento del aprendizaje automático distribuido (ML), donde los modelos se forman a través de conjuntos de datos fragmentados, cambia la situación de las áreas sensibles a la confidencialidad y la atención médica. Los hospitales pueden colaborar en un modelo ML para predecir los resultados de los pacientes sin compartir los archivos de pacientes sin procesar. Pero, ¿cómo sabemos que cada nodo de esta red ha formado correctamente su parte? En este momento, no lo hacemos.
Operamos en un mundo optimista donde las personas están enamoradas de la IA y no nos preocupan por los efectos en cascada que hacen que cometa un grave error. Pero eso no se mantendrá cuando sea un modelo mal capacitado de un paciente o hace un trabajo terrible.
Los ZKP ofrecen una forma de verificar que cada máquina de una red distribuida haya hecho su trabajo, que ha entrenado en los datos correctos y siguió el algoritmo correcto, sin obligar a cada nudo a rehacer el trabajo. Aplicado a ML, esto significa que podemos dar fe de la criptográfica que la liberación de un modelo refleja su capacitación planificada, incluso cuando los datos y el cálculo se dividen entre los continentes. No es solo una cuestión de confianza; Se trata de construir un sistema donde la confianza no es necesaria.
Los agentes de IA se definen por autonomía, pero la autonomía desatendida es una receta para el caos. La gobernanza de un agente verificable impulsado por ZKPS establece el equilibrio correcto; Aplicar reglas sobre un sistema de múltiples agentes al tiempo que preserva la libertad de funcionar de cada agente. Al incorporar la verificabilidad en la gobernanza de los agentes, podemos crear un sistema flexible y listos para el futuro de IA. ZKPS puede garantizar que una flota de automóviles autónomos siga los protocolos de tráfico sin revelar sus rutas, o un enjambre de agentes financieros se adhieren a los límites regulatorios sin exponer sus estrategias.
Un futuro en el que confiamos en nuestras máquinas
Sin ZKP, jugamos un juego peligroso. La comunicación no leída de los agentes arriesga a fugas o colusión de datos (imagine los agentes de la prioridad en secreto el beneficio de la ética). La capacitación distribuida no verificada también invita a errores y falsificación, lo que puede socavar la confianza en las salidas de IA. Y sin una gobernanza exigible, terminamos con un salvaje oeste de agentes que actúan impredecibles. No es una base en la que podamos confiar a largo plazo.
Los problemas aumentan. A 2024 Informe de Stanford Hai Advierte que existe una grave falta de normalización en los informes responsables de la IA y que las principales preocupaciones relacionadas con las compañías de IA incluyen confidencialidad, seguridad de datos y confiabilidad. No podemos permitirnos esperar una crisis antes de actuar. Los ZKP pueden evitar estos riesgos y darnos una capa de seguro que se adapte al crecimiento explosivo de la IA.
Imagine un mundo donde cada agente de IA ofrece una insignia criptográfica: la prueba de ZK garantiza que hace lo que se supone que debe discutir con sus compañeros en la capacitación sobre datos dispersos. No se trata de sofocar la innovación; Se trata de manipularlo de manera responsable. Afortunadamente, estándares como Iniciativa NIST 2025 ZKP Esta visión también acelerará, asegurando la interoperabilidad y la confianza en las industrias.
Está claro que estamos en una encrucijada. Los agentes de IA pueden impulsarnos a una nueva era de eficiencia y descubrimiento, pero solo si podemos demostrar que siguen las órdenes y entrenados correctamente. Al besar al ZKP, no solo aseguramos a la IA; Construimos un futuro donde la autonomía y la responsabilidad pueden coexistir, lo que estimula el progreso sin dejar a los humanos en la oscuridad.
Mencionado en este artículo


