
Opinión de: Roman Cyganov, fundador y CEO de Antix
En el otoño de 2023, los escritores de Hollywood tomaron una posición contra la invasión de IA en su profesión. Miedo: AI produjo guiones y erosionaría la narración auténtica. Avance rápido un año después, y la publicidad del servicio público presenta versiones de Farefake de celebridades como Taylor Swift y Tom Hanks, advirtiendo contra la desinformación de las elecciones.
Somos unos meses después del comienzo de 2025. Sin embargo, el resultado esperado de la IA en la democratización del acceso al futuro del entretenimiento ilustra una evolución rápida, de un cálculo social más amplio con realidad distorsionada y desinformación masiva.
A pesar de la “era de ai”, casi 52% Los estadounidenses están más preocupados que en su creciente papel en la vida diaria. Agregue a esto los resultados de otra encuesta reciente que 68% Los consumidores a escala global entre “algo” y “muy” preocupados por la privacidad en línea, motivados por el temor de medios engañosos.
Estos ya no son memes o nalgas profundas. Los medios generados por AI modifican fundamentalmente cómo se produce, distribuye y consume contenido digital. Los modelos de IA ahora pueden generar imágenes, videos y voces hiper realistas, planteando preocupaciones urgentes sobre la propiedad, la autenticidad y el uso ético. La capacidad de crear contenido sintético con un mínimo de esfuerzo tiene profundas implicaciones para las industrias que dependen de la integridad de los medios. Esto indica que la propagación no se incluye de folletos profundos y reproducciones no autorizadas sin un método de verificación segura amenaza por completo la confianza en el contenido digital. Esto, a su vez, afecta la base central de usuarios: creadores de contenido y empresas, que se enfrentan a crecientes riesgos de disputas legales y daños en la reputación.
Aunque la tecnología blockchain a menudo se ha presentado como una solución confiable para la posesión de contenido y control descentralizado, es solo hoy, con el advenimiento de generar IA, que su prominencia como salvaguardia ha aumentado, en particular en términos de escalabilidad y confianza del consumidor. Considere redes de verificación descentralizadas. Estos permiten autenticar el contenido generado por AI-AI en varias plataformas sin ninguna autoridad que dicte algoritmos vinculados al comportamiento del usuario.
Obtenga Genai Onchain
Las leyes actuales de propiedad intelectual no están diseñadas para abordar los medios generados por la IA, dejando las brechas críticas en las regulaciones. Si un modelo AI produce un contenido, ¿qué legalmente lo tiene? ¿La persona que proporciona la contribución, la empresa detrás del modelo o persona? Sin registros de propiedad claros, las disputas sobre los activos digitales continuarán degenerando. Esto crea un entorno digital volátil donde los medios manipulados pueden erosionar la confianza en el periodismo, los mercados financieros e incluso la estabilidad geopolítica. El mundo de la criptografía no es inmune a eso. Deepfakes y ataques sofisticados construidos por AI provocan pérdidas insuperables, con informes que destacan cómo las estafas de IA dirigidas a billeteras criptográficas han saltado en los últimos meses.
Blockchain puede autenticar los activos digitales y garantizar el seguimiento de la propiedad transparente. Cada elemento de soporte generado por AI se puede registrar en el aire, ofreciendo una historia excitada de su creación y su modificación.
Se acercó a una impronta digital digital para el contenido generado por AI, vinculándolo permanentemente a su fuente, permitiendo a los creadores probar la propiedad, las empresas siguen el uso del contenido y los consumidores para validar la autenticidad. Por ejemplo, un desarrollador de juegos podría registrar un activo realizado en IA en la cadena de bloques, asegurando que su origen sea rastreable y protegido contra el vuelo. Los estudios podrían usar la cadena de bloques en la producción de películas para certificar escenas generadas por AI, evitando la distribución o manipulación no autorizada. En las aplicaciones de Metaversse, los usuarios podrían mantener un control completo sobre sus avatares e identidades digitales generadas por AI, la cadena de bloques actúa como un gran libro inmutable para la autenticación.
El uso del final de la cadena de bloques evitará el uso no autorizado de los avatares generados por la IA y los soportes sintéticos mediante la implementación de una verificación de identidad en la cadena. Esto aseguraría que las representaciones digitales estén vinculadas a entidades verificadas, lo que reduce el riesgo de fraude e identidad. Con el mercado generativo de IA planeado para alcanzar los $ 1.3 mil millones para 2032, asegurar y verificar el contenido digital, en particular los medios generados por la IA, son más urgentes que nunca a través de tales marcos de verificación descentralizados.
Reciente: Estrabas románticas alimentadas por AI: La nueva frontera del fraude criptográfico
Dichos ejecutivos también ayudarían a luchar contra la desinformación y el fraude de contenido al tiempo que permiten una adopción entre la industria. Esta base abierta, transparente y segura beneficia a los sectores creativos como publicidad, medios y entornos virtuales.
Adopción de masa objetivo en medio de las herramientas existentes
Algunos argumentan que las plataformas centralizadas deben administrar las verificaciones de IA, ya que controlan la mayoría de los canales de distribución de contenido. Otros creen que las técnicas impermeables o las bases de datos dirigidas por el gobierno ofrecen una vigilancia suficiente. Ya se ha demostrado que los filigranos se pueden eliminar o manejar fácilmente, y las bases de datos centralizadas siguen siendo vulnerables a la piratería, las violaciones de datos o el control de entidades únicas con intereses conflictivos.
Es bastante visible que los medios generados por la IA evolucionen más rápido que las garantías existentes, dejando a las empresas, los creadores de contenido y las plataformas expuestas al aumento de los riesgos de fraude y daños en la reputación.
Para que la IA sea una herramienta para el progreso en lugar del engaño, los mecanismos de autenticación deben progresar simultáneamente. El mayor defensor de la adopción de masa de blockchain en este sector es que proporciona una solución evolutiva que corresponde a la tasa de progresión de la IA con el soporte de infraestructura necesario para mantener la transparencia y la legitimidad de los derechos de propiedad intelectual.
La siguiente fase de la Revolución AI se definirá no solo por su capacidad para generar contenido hiper realista, sino también por los mecanismos para establecer estos sistemas a tiempo, porque las estafas vinculadas a la criptográfica alimentada por la decepción generada por la IA deberían alcanzar una cumbre de todos los tiempos en 2025.
Sin un sistema de verificación descentralizado, es solo cuestión de tiempo antes de que las industrias confíen en el contenido generado por AI-PERD la credibilidad y no enfrentan un mayor examen regulatorio. No es demasiado tarde para que la industria considere este aspecto de los ejecutivos de autenticación descentralizados más en serio antes de que la confianza digital colapsara bajo el engaño no controlado.
Opinión de: Roman Cyganov, fundador y CEO de Antix.
Este artículo es para fines de información general y no está destinado a ser y no debe considerarse como asesoramiento legal o de inversión. Los puntos de vista, los pensamientos y opiniones expresados aquí son los únicos del autor y no reflexionan o no representan necesariamente las opiniones y opiniones de Cointellegraph.
