
La llegada de una IA potente, o AGI, ya no parece sacada de un libro de ciencia ficción
Esto se está convirtiendo cada vez más en nuestra realidad.Naturalmente, este tema de tendencia ha influido en el espacio Web 3.0, lo que ha llevado a empresas e inversores a centrarse en la integración de la IA.
recuerda la inicial cifrartiene ¿Auge cuando todas las empresas de tecnología querían agregar blockchain a su pila tecnológica, a menudo innecesariamente?
Esto es lo que está pasando ahora con la IA.
Incluso los grandes eventos recientes, como ETHDenver o Token2049, que anteriormente se centraban exclusivamente en la Web 3.0, están avanzando hacia una sinergia de temas que implican la conjunción de la IA y la Web 3.0.
No tengo reparos en ello, pero ser un fanático de la ciencia ficción me ha hecho pensar mucho en los desafíos del mundo real que plantea la IA y en cómo podemos protegernos de un futuro que se parece más a la película “Ex-Machina” que a la película “Ex-Machina”. Su”.
Compartiré algunas de mis ideas sobre la integración de la IA en la Web 3.0 y cómo podemos prevenir algunos de los problemas que puedan surgir.
Puede que no suceda mañana o el año que viene, pero es un futuro para el que debemos prepararnos.
¿Podrían los sesgos éticos en los modelos de IA afectar las creencias de las personas?
Lo primero que me viene a la mente acerca de que “la IA se apoderará del mundo” es el sesgo inherente del modelo.
quién lo entrena y qué datos utiliza.¿Qué sucede si entrenas a tu IA con puntos de vista u opiniones de naturaleza cuestionable?
¿Podría utilizarse esto para influir en las opiniones a gran escala? ¿Podría usarse esto para lavar el cerebro de los jóvenes?
¿Qué pasaría si estuviera entrenado para ser muy sutil al hacer esto?
En este caso, la descentralización podría desempeñar un doble papel.
Por un lado, la integración de la tecnología blockchain en los modelos de IA hará que sea más difícil para un grupo tomar el control y manipular el sistema.
Pero al mismo tiempo, si esta descentralización no se gestiona adecuadamente, podría exacerbar los desafíos y dañar fácilmente la red.
Dado el nivel actual del discurso en X (anteriormente Twitter), otra preocupación recurrente es que sólo unas pocas organizaciones controlarán los sesgos integrados en estos modelos de IA.
Gigantes de la industria como Meta enfatizan la necesidad de modelos de código abierto mientras mantienen el control por su parte.
OpenAI comenzó como una empresa de código abierto y desde entonces se ha convertido en todo menos “abierto”.
Al permitir que todos refinen los modelos de IA, podemos cultivar una variedad de sesgos y perspectivas.
Esta diversidad podría brindar más opciones a las personas y evitar que unos pocos grupos poderosos dominen el desarrollo de la IA, fomentando así un futuro tecnológico más equitativo.
A medida que exploramos la convergencia de la IA y la Web 3.0, es fundamental comprender cómo estas tecnologías pueden mejorarse mutuamente.
La IA toma el control de los humanos
A medida que los sistemas de IA se integran cada vez más en la vida diaria, el control y la protección de los datos personales se convierte en otra preocupación importante.
En este escenario, la descentralización podría resultar muy útil y potencialmente devolvería el control a las personas.
Sin embargo, integrar la IA con blockchain conlleva riesgos.
¿Cómo podemos estar seguros de que la IA actúa en interés del ser humano?
¿Cómo podemos garantizar que la forma en que han sido programados no sea parcial y solo sirva para apoyar a la humanidad?
Teniendo en cuenta estos desafíos, depender exclusivamente de sistemas programados no es viable, ya que el código también puede estar sesgado.
Las decisiones de programación a veces también pueden tener sesgos, especialmente si el equipo no es diverso o si los datos con los que se entrenaron los modelos están sesgados.
Aunque tecnologías como la IA y la cadena de bloques tienen muchos beneficios, todavía necesitamos supervisión humana para garantizar que todo funcione de manera justa.
En un entorno descentralizado, la supervisión humana podría implementarse a través de un modelo de gobernanza compartida.
Las decisiones sobre datos de capacitación, actualizaciones de modelos y pautas éticas podrían tomarse por consenso entre un grupo diverso de partes interesadas.
Este grupo podría incluir desarrolladores, especialistas en ética, representantes de usuarios y auditores externos.
Trabajarían juntos para monitorear el comportamiento de la IA e intervendrían si fuera necesario, asegurando que los sistemas de IA sean consistentes con los valores humanos y estándares éticos más amplios.
Un modelo de gobernanza de este tipo no sólo aprovecha los beneficios de la descentralización sino que también mitiga los riesgos, asegurando que esta tecnología mejore.
en lugar de socavar bienestar humano.¿Cuáles son sus principales consideraciones respecto a esta evolución de la IA?
Enlace:
Fuente: