OpenAI no reveló ninguna violación de seguridad en 2023 – NYT

OpenAI sufrió una violación de seguridad en 2023, pero no reveló el incidente fuera de la empresa, informó el New York Times. 4 de julio.

Los ejecutivos de OpenAI supuestamente revelaron el incidente internamente durante una reunión de abril de 2023, pero no lo revelaron públicamente porque el atacante no tuvo acceso a información sobre clientes o socios.

Además, los ejecutivos no consideraron que el incidente fuera una amenaza para la seguridad nacional porque consideraban que el atacante era un particular sin vínculos con ningún gobierno extranjero. No informaron del incidente al FBI ni a otras agencias de aplicación de la ley.

Según se informa, el atacante accedió a los sistemas de mensajería interna de OpenAI y robó detalles sobre los diseños de tecnología de inteligencia artificial de la empresa a partir de conversaciones de empleados en un foro en línea. No accedió a los sistemas donde OpenAI “alberga y construye su inteligencia artificial”, ni tampoco al código.

El New York Times citó como fuentes a dos personas familiarizadas con el asunto.

Ex empleado expresó preocupación

El New York Times también se refirió a Leopold Aschenbrenner, un ex investigador de OpenAI que envió una nota a los directores de OpenAI después del incidente y pidió medidas para evitar que China y otros países roben secretos de la empresa.

El New York Times dijo que Aschenbrenner aludió al incidente en un podcast reciente.

Liz Bourgeois, representante de OpenAI, dijo que la empresa apreciaba las preocupaciones de Aschenbrenner y manifestó su apoyo al desarrollo seguro de la IA general, pero cuestionó los detalles. Dijo:

“No estamos de acuerdo con muchos de [Aschenbrenner’s claims] … Esto incluye sus caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa”.

Aschenbrenner dijo que OpenAI lo despidió por filtrar otra información y por motivos políticos. Bourgeois dijo que las preocupaciones de Aschenbrenner no llevaron a su despido.

Matt Knight, responsable de seguridad de OpenAI, destacó los compromisos de la empresa en materia de seguridad. Según declaró al New York Times, la empresa “comenzó a invertir en seguridad años antes que ChatGPT”. Admitió que el desarrollo de la IA “conlleva algunos riesgos y tenemos que resolverlos”.

El New York Times reveló un aparente conflicto de intereses al señalar que demandó a OpenAI y Microsoft por supuesta violación de los derechos de autor de su contenido. OpenAI cree que el caso carece de fundamento.

Mencionado en este artículo
Exit mobile version