API clave XAI DEV Fugas para SpaceX privado, Tesla LLMS – Krebs en seguridad

Un empleado de la compañía de inteligencia artificial de Elon Musk xai ha revelado una clave privada para Github que durante dos meses podría haber permitido a cualquiera cuestionar modelos privados de gran lenguaje (LLM) que parezcan haber sido hechos a medida para trabajar con los datos internos de las compañías de almizcle, incluidas Spacex, Tesla Y Twitter / x, Krebssonscurity aprendió.

Imagen: Shutterstock, @ SDX15.

Philippe Catulgli“Oficina de piratería principal” en el Consejo de Seguridad Seralera el primero en dar a conocer el vuelo Información de identificación para una interfaz de programación de aplicaciones X.AI (API) expuesta en el repositorio de código GitHub de un miembro del personal técnico de XAI.

La publicación de Catulgli en LinkedIn llamó la atención de los investigadores para GitguardianoUna empresa especializada en la detección y reparación de los secretos expuestos en público y propietarios. Los sistemas GitGuardian escanean constantemente GitHub y otros estándares de código para las teclas API expuestas y activan alertas automatizadas a los usuarios afectados.

Gitguardiano Eric Fourrier le dijo a Krebssity que la clave API expuesta tenía acceso a varios modelos inéditos de CaminanteEl chatbot ha desarrollado por Xai. En total, Gitguardian descubrió que la clave tenía acceso a al menos 60 conjuntos de datos separados.

“La información de identificación se puede utilizar para acceder a la API X.AI con la identidad del usuario”, dijo Gitguardian en un correo electrónico explicando sus conclusiones a XAI. “La cuenta asociada no solo tiene acceso a los modelos públicos de Grok (GROK-2-1212, etc.), sino también a lo que parece sin precedentes (Grok-2.5V), desarrollo (Investigación-GROK-2P5V-1018) y modelos privados (Tweet Refrector, Grok-SpaceX-2024-11-04)”.

Fourrier descubrió que Gitguardian había alertado al empleado de XAI sobre la clave API expuesta hace casi dos meses, el 2 de marzo. Pero a partir del 30 de abril, cuando Gitguardian alertó directamente al equipo de seguridad de XAI sobre la exposición, la clave aún era válida y utilizable. Xai le dijo a Gitguardian que informara la pregunta a través de su programa de bonificación de errores para CortarPero unas horas más tarde, el punto de referencia que contiene la clave API se eliminó de GitHub.

“Parece que algunos de estos LLM internos se refinan en los datos de SpaceX, y algunos han sido refinados con datos de Tesla”, dijo Fourrier. “Ciertamente no creo que un modelo de Grok que se refine en los datos de SpaceX pretende ser expuesto públicamente”.

XAI no respondió a una solicitud de comentarios. El miembro del personal técnico de 28 años -old XAI, cuya clave no ha sido expuesta.

Carole Winqwist Equipo de investigación directo de Gitguardian. Winquist dijo que dar acceso gratuito a los usuarios potencialmente hostiles a LLMS privados es una receta de desastre.

“Si eres un atacante y tienes acceso directo al modelo y a la interfaz trasera para cosas como Grok, esto es algo que puedes usar para atacar más”, dijo. “Podría un atacante usar para inyección rápida, para modificar el modelo (LLM) para cumplir sus objetivos, o tratar de implantar el código en la cadena de suministro”.

La exposición inadvertida de los LLM internos para Xai se produce cuando el llamado almizcle Departamento de efectividad del gobierno (Doge) ha alimentado grabaciones del gobierno sensible en herramientas de inteligencia artificial. En febrero, The Washington Post reportado Los funcionarios de DOGE proporcionaron datos de todo el departamento de educación en herramientas de IA para investigar los programas y gastos de la agencia.

El Post dijo que Dege planea reproducir este proceso en muchos departamentos y agencias, accediendo al software de fondo en diferentes partes del gobierno, luego utilizar la tecnología de IA para extraer y examinar información sobre el gasto en empleados y programas.

“El suministro de datos confidenciales en el software para el lugar en posesión del operador de un sistema, lo que aumenta las posibilidades de que se revele o se vaya en ataques cibernéticos”, escribieron periodistas.

Wired informó en marzo que perro desplegó un chatbot propietario llamado gsai a 1.500 trabajadores federales en Administración de Servicios GeneralesParte de un esfuerzo por automatizar las tareas llevadas a cabo por el hombre, mientras que Doge continúa su purga de la fuerza laboral federal.

A Reuters informe El mes pasado, los funcionarios de la administración de Trump dijeron a ciertos empleados del gobierno de EE. UU. Que Dege solía monitorear las comunicaciones de una agencia federal para el presidente Trump y su programa al menos. Reuters escribió que el equipo de Doge ha desplegado enormemente Musk Grok Ai Cat como parte de su trabajo que redujo el gobierno federal, aunque Reuters dijo que no podía establecer exactamente cómo se usaba Grok.

Curatuli dijo que aunque no hay indicios de que el gobierno federal o los datos de los usuarios puedan ser accesibles a través de la clave API X.AI, estos modelos privados probablemente estén capacitados en datos patentados y puedan exponer los detalles involuntariamente relacionados con los esfuerzos de desarrollo interno en Xai, Twitter o SpaceX.

“El hecho de que esta clave estuviera expuesta públicamente durante dos meses y se le otorgó acceso a modelos internos es preocupante”, dijo Caturengli. “Este tipo de exposición a la información de identificación a largo plazo destaca la baja gestión de las claves y la vigilancia interna insuficiente, plantean preguntas sobre las garantías en torno al acceso a los desarrolladores y una seguridad operativa más amplia”.

Exit mobile version