El gobernador de California, Gavin Newsom (D), vetó el SB-1047, un proyecto de ley que habría impuesto lo que algunos percibieron como restricciones demasiado amplias (y poco realistas) a los desarrolladores de modelos avanzados de inteligencia artificial (IA).
Al hacerlo, Newsom probablemente decepcionó a muchos otros, incluidos destacados investigadores de IA, el Centro para la Seguridad de la IA (CAIS) y el Screen Actors Guild, que consideraron que el proyecto de ley establecía salvaguardias muy necesarias en materia de seguridad y privacidad en torno al desarrollo y uso de la IA. modelos.
¿Bien intencionado pero defectuoso?
“Aunque tiene buenas intenciones, el SB-1047 no tiene en cuenta si un sistema de IA se implementa en entornos de alto riesgo, si implica la toma de decisiones críticas o el uso de datos confidenciales”. Newsom escribió. “En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que lo implemente un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”.
El anuncio de veto de Newsom contenía referencias a otros 17 proyectos de ley relacionados con la IA que firmó durante el mes pasado y que regulan el uso y despliegue de herramientas de IA generativa (GenAI) en el estado, una categoría que incluye chatbots como ChatGPT, Microsoft Copilot y Google. Géminis y otros.
“Tenemos la responsabilidad de proteger a los californianos de los riesgos potencialmente catastróficos asociados con el despliegue de GenAI”, reconoció. Pero aclaró que el SB-1047 no era el vehículo para estas protecciones. “Trabajaremos detenidamente (y rápidamente) en una solución que se adapte a esta tecnología en rápida evolución y aproveche su potencial para promover el bien público”. »
Hay muchas otras sugerencias a nivel estatal, buscando un control similar sobre el desarrollo de la IA en medio de preocupaciones sobre otros Países que superan a Estados Unidos. en el frente de la IA.
La necesidad de un desarrollo seguro de la IA
Los senadores estatales de California Scott Wiener, Richard Roth, Susan Rubio y Henry Stern propusieron SB-1047 como una medida que impondría cierta supervisión a empresas como OpenAI, Meta y Google, todas las cuales están invirtiendo cientos de millones de dólares en el desarrollo de tecnologías de IA.
En el centro de la Ley de Innovación Segura para Modelos de Inteligencia Artificial Fronterizos se encuentran estipulaciones que habrían requerido que las empresas que desarrollan grandes modelos de lenguaje (LLM), cuyo desarrollo puede costar más de 100 millones de dólares, se aseguraran de que sus tecnologías no permitieran ninguna daño crítico. El proyecto de ley define “daños críticos” como incidentes que involucran el uso de tecnologías de inteligencia artificial para crear o usar armas químicas, biológicas, nucleares y otras armas de destrucción masiva, o aquellos que causan víctimas masivas, daños masivos, muertes, lesiones personales y otros daños.
Para hacer esto, la SB-1047 habría requerido que las entidades cubiertas cumplieran con controles administrativos, técnicos y físicos específicos para evitar el acceso no autorizado a sus modelos, el uso indebido de sus modelos o la modificación insegura de sus modelos por parte de “otros”. El proyecto de ley incluía una cláusula particularmente controvertida que habría requerido que OpenAI, Google y Metas en todo el mundo implementaran capacidades de seguridad similares a las nucleares para “llevar a cabo un cierre completo” de sus LLM en determinadas circunstancias.
El proyecto de ley obtuvo un amplio apoyo bipartidista y fue aprobado fácilmente por la Asamblea y el Senado del Estado de California a principios de este año. Se dirigió a la oficina de Newsom para firmar en agosto. En el momento, Weiner citó apoyo destacados investigadores de IA como Geoffrey Hinton (ex investigador de IA en Google), profesor Yoshoua Bengio, y entidades como CAIS.
Incluso Elon Musk, cuya propia empresa xAI supuestamente estaba sujeta a la SB-1047, se manifestó a favor del proyecto de ley. en un artículo sobre diciendo que Newsom probablemente debería aprobar el proyecto de ley dado el potencial los riesgos existenciales de la IA galopante, que él y otros han estado informando durante muchos meses.
¿Miedo basado en escenarios apocalípticos teóricos?
Otros, sin embargo, percibieron que el proyecto de ley se basaba en escenarios apocalípticos no probados sobre el potencial de la IA para causar estragos en la sociedad. En una carta abiertauna coalición que incluía varias entidades, incluido el Consejo del Área de la Bahía, la Cámara de Progreso, TechFreedom y el Silicon Valley Leadership Group, calificó el proyecto de ley como fundamentalmente defectuoso.
El grupo afirmó que los daños contra los que SB-1047 buscaba proteger eran completamente teóricos, sin ninguna base real. “Además”, concluye la última investigación académica independiente, “los grandes modelos de lenguaje como ChatGPT no pueden aprender ni adquirir nuevas habilidades de forma independiente, lo que significa que no representan una amenaza existencial para la humanidad”. La coalición también discrepó del hecho de que el proyecto de ley responsabilizaría a los desarrolladores de grandes modelos de IA de lo que otros hacen con sus productos.
Arlo Gilbert, director ejecutivo de la empresa de privacidad de datos Osano, se encuentra entre quienes ven la decisión de Newsom de vetar el proyecto de ley como una buena medida.. “Apoyo la decisión del gobernador”, dice Gilbert. “Aunque soy un firme partidario de la regulación de la IA, la propuesta SB-1047 no es la forma correcta de hacerlo”.
Como identificó Newsom, existen brechas entre las políticas y la tecnología, y el equilibrio entre hacer lo correcto y apoyar la innovación merece un enfoque cuidadoso, afirma. Desde una perspectiva de privacidad y seguridad, las pequeñas empresas emergentes o empresas que habrían estado exentas de esta regla en realidad pueden presentar un mayor riesgo de daño debido a su acceso relativo a los recursos necesarios para proteger, monitorear y devolver datos de sus sistemas, señala Gilbert.
En una declaración enviada por correo electrónico, Melissa Ruzzi, directora de inteligencia artificial de AppOmni, identificó que la SB-1047 plantea cuestiones que requieren atención inmediata: “Todos sabemos que la IA es muy nueva y es difícil redactar leyes al respecto. No podemos esperar que las leyes sean impecables y perfectas primero; lo más probable es que sea un proceso iterativo, pero tenemos que empezar por algún lado. »
Reconoció que algunos de los actores más importantes del sector de la IA, como Anthropic y Google, se han centrado en garantizar que sus tecnologías no causen daño. “Pero para garantizar que todos los jugadores sigan las reglas, se necesitan leyes”, dijo. “Esto elimina la incertidumbre y el miedo de los usuarios finales con respecto al uso de la IA en una aplicación”.