Los gigantes de la tecnología repelen en un momento crucial para la Ley de AI de la UE

La Ley de AI de la UE ha sido elogiada como el conjunto más completo de regulaciones sobre inteligencia artificial en el planeta. Pero Es un conjunto de principios generales sin detalles para la implementación.

El verdadero trabajo viene con el Código de práctica Para modelos de IA para uso general, que detalla los requisitos de cumplimiento para las empresas de IA.

“Muchos de fuera de Europa han dejado de prestar atención a la Ley AI, que lo consideró un caso. Es un error terrible. La verdadera lucha ocurre en este momento “, escribió Laura CaroliUn investigador principal en Wadhwani AI CenterPara el Centro de Estudios Estratégicos e Internacionales.

El código de práctica se someterá a tres bocetos antes de ser finalizado a fines de abril. Estos requisitos voluntarios entran en vigencia en agosto.

Sin embargo, el tercer proyecto se publicaría el 17 de febrero, pero ahora se retrasa, con indicaciones de que no estará ausente durante un mes, Risto uukResponsable de la política e investigación de la UE Instituto del Futuro de la Vidadijo Pymnts. El grupo de defensa está dirigido por el maestro del MIT Max Tegmark Como presidente.

El UUK cree que la demora en el proyecto se debió a la presión de la industria tecnológica. Las reglas son particularmente difíciles para los modelos de IA que presentan un riesgo sistémico, que se aplica a 10 a 15 de los modelos más grandes creados por Operai, Google, Meta, Anthrope, XAI Y Otros, agregó.

Las compañías tecnológicas repelen

Las grandes compañías tecnológicas son audazmente estimulante Regulaciones de la UE, creyendo que tendrán el apoyo de la administración Trump, según The Financial Times (FT). Meta envió cabilderos tecnológicos a la UE para educar a la Ley AI.

El FT también dijo que Meta se negó a firmar el código de práctica, que es un acuerdo voluntario de cumplimientomientras Google Kent WalkerPresidente de Asuntos Mundiales, dicho Político de que el código de práctica era un “paso en la dirección equivocada” en un momento en que Europa quiere ser más competitivo.

“Algunas grandes compañías tecnológicas salen diciendo que no firmarán este código de práctica a menos que se modifique de acuerdo con lo que quieran”, dijo Uuk.

Algunos problemas de discordia giran en torno a cómo se usa el material protegido por los derechos de autor para el entrenamiento. Otra es que un tercero independiente evalúa sus modelos de riesgo, según el UUK.

Se quejaron de que el código va más allá de los requisitos de la Ley de la UE, dijo el UUK. Pero Señaló que muchos de ellos ya ejercen estas prácticas en colaboración con la IA de seguridad británica y otros. Compañías tecnológicas también Ya liberar Sus informes técnicos públicamente.

La UUK dijo que la UE debilitará las disposiciones de seguridad debido a la oposición de las compañías tecnológicas. También señaló que la nueva administración de la Comisión Europea que asumió sus deberes en diciembre pasado se inclina para reducir los trámites administrativos, simplificando las reglas Y Aumento de la innovación.

¿Qué pasó después de la carta de pausa ai?

El Future of Life Institute es quizás mejor conocido en los círculos de IA como la organización que ha difundido un carta abierta En marzo de 2023, pidiendo una moratoria de seis meses en modelos AI avanzados hasta que se desarrollaron protocolos de seguridad. Fue firmado por el CEO de Tesla, Elon Musk, cofundador de Apple Steve Wozniak, Iowa Los pioneros de Yoshua Bengio y Stuart Russell, entre otros.

¿Funcionó la carta? El UUK dijo que no hubo descanso en el desarrollo de la IA y que el ritmo rápido del progreso de la IA continuó.

Además, “muchos de ellos [AI] Las empresas no han aumentado su trabajo de seguridad, que la carta “Pausa” preguntó “, agregó. “El descanso no fue solo para el descanso, sino que lo usaría para aumentar el trabajo de seguridad de la IA, y este trabajo, sin duda, en muchos casos, no ha ocurrido”.

En mayo de 2024, Openai disuelto Su equipo de seguridad de IA unos días después de la renuncia de sus dos líderes de la IA en términos de seguridad: científico jefe Ilya stskever Y el co-líder de la seguridad, Jan Leike, quien publicó en X que OpenAi no priorizó la seguridad de la IA.

Un lado positivo es que si las empresas tecnológicas han seguido construyendo, la acción regulatoria ha crecido a escala global, dijo UUK. Señaló lo siguiente:

  • La Ley de AI de la UE se ha convertido en la primera regulación completa de la IA en el mundo. Fue adoptado en marzo de 2024.
  • Corea del Sur adoptado El acto básico de AI en diciembre pasado, reflejando el marco de la UE.
  • China ha sido presentación Ia políticas de gobierno mientras Brasil trabaja solo Ai AC.
  • Estados Unidos permanece fragmentado, con los estados presentación su propio Leyes.

Sin embargo, el UUK estaba decepcionado por la IA de la acción de la IA de este año en París, después de los dos primeros en el Reino Unido y Corea del Sur.

A diferencia de las cumbres de seguridad anteriores, la cumbre de París ha buscado promover la innovación. “No hubo discusión sobre la seguridad”, dijo Uuk.

Exit mobile version