Altman de OpenAI y Buterin de Ethereum presentan visiones competitivas para el futuro de la IA

Esta semana, dos de las voces más influyentes en tecnología presentaron visiones contrastantes para el desarrollo de la inteligencia artificial, destacando la creciente tensión entre innovación y seguridad.

El CEO Sam Altman reveló el domingo por la noche en un publicación de blog En cuanto a la trayectoria de su empresa, OpenAI ha triplicado su base de usuarios a más de 300 millones de usuarios activos semanales en su carrera hacia la inteligencia artificial general (AGI).

“Ahora confiamos en que sabemos cómo construir AGI como la hemos entendido tradicionalmente”, dijo Altman, argumentando que para 2025 los agentes de IA podrían “unirse a la fuerza laboral” y “cambiar significativamente la producción de las empresas”.

Altman dice que OpenAI se está moviendo hacia algo más que agentes de IA y AGI, y dice que la compañía está comenzando a trabajar en “superinteligencia en el verdadero sentido de la palabra”.

El cronograma de entrega para AGI o superinteligencia no está claro. OpenAI no respondió de inmediato a una solicitud de comentarios.

Pero unas horas antes, el domingo, el cocreador de Ethereum, Vitalik Buterin. proponer utilizar la tecnología blockchain para crear mecanismos de seguridad globales para sistemas avanzados de IA, incluida una capacidad de “pausa suave” que podría restringir temporalmente las operaciones de IA a escala industrial si aparecen señales de advertencia.

Seguridad basada en criptografía para la seguridad de la IA

Buterin habla aquí de “d/acc” o aceleración descentralizada/defensiva. En el sentido más simple, d/acc es una variación de e/acc, o aceleración efectiva, un movimiento filosófico propugnado por figuras prominentes de Silicon Valley como Marc Andreessen de a16z.

El d/acc de Buterin también apoya el progreso tecnológico pero prioriza los desarrollos que mejoran la seguridad y la acción humana. A diferencia del aceleracionismo efectivo (e/acc), que adopta un enfoque de “crecimiento a toda costa”, el d/acc se centra primero en fortalecer las capacidades defensivas.

“D/acc es una extensión de los valores subyacentes de la criptografía (descentralización, resistencia a la censura, economía y sociedad globales abiertas) a otras áreas tecnológicas”, escribió Buterin.

Al recordar el progreso de d/acc durante el año pasado, Buterin escribió sobre cómo se podría implementar un enfoque más cauteloso hacia AGI y sistemas superinteligentes utilizando mecanismos criptográficos existentes, como las pruebas de conocimiento cero.

Según la propuesta de Buterin, las principales computadoras de IA necesitarían la aprobación semanal de tres grupos internacionales para continuar funcionando.

“Las firmas serían independientes del dispositivo (si quisiéramos, incluso podríamos exigir una prueba de conocimiento cero de que fueron publicadas en una cadena de bloques), por lo que sería todo o nada: no habría una forma práctica de “permitir que un dispositivo continuar operando sin permitir que todos los demás dispositivos”, explicó Buterin.

El sistema funcionaría como un interruptor maestro en el que todas las computadoras aprobadas funcionan o ninguna, evitando así que alguien realice solicitudes selectivas.

“Hasta que llegue un momento tan crítico, la mera posibilidad de hacer una pequeña pausa no causaría mucho daño a los promotores”, señaló Buterin, describiendo el sistema como una forma de seguro contra escenarios catastróficos.

De todos modos, el crecimiento explosivo de OpenAI a partir de 2023 (de 100 millones a 300 millones de usuarios semanales en solo dos años) muestra cuán rápido está progresando la adopción de la IA.

Desde un laboratorio de investigación independiente hasta una gran empresa de tecnología, Altman reconoció los desafíos de construir “una empresa completa, casi desde cero, en torno a esta nueva tecnología”.

Las propuestas reflejan debates más amplios de la industria sobre la gestión del desarrollo de la IA. Sus defensores han argumentado anteriormente que implementar un sistema de control global requeriría una cooperación sin precedentes entre los principales desarrolladores de IA, los gobiernos y la industria de la criptografía.

“Un año de ‘modo guerra’ puede fácilmente valer cien años de trabajo en condiciones de complacencia”, escribió Buterin. “Si vamos a limitar a la gente, parece mejor limitar a todos en pie de igualdad y hacer el trabajo duro de tratar de cooperar para organizar eso en lugar de que un partido busque dominar a todos. »

Editado por Sébastien Sinclair.

Generalmente inteligente Hoja informativa

Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.