Recientemente, un chatbot hizo su debut apodado Ghostgpt dio a Budcriminales en incipiente y activo una nueva herramienta práctica para desarrollar software malicioso, llevar a cabo estafas por correo electrónico comercial y ejecutar otras actividades ilegales.
Como antes, chatbots similares como GusanoGhostGPT es un modelo de IA no presentado, lo que significa que está configurado para evitar las mediciones de seguridad y las limitaciones éticas habituales disponibles con los sistemas intermediarios tradicionales como ChatGPT, Claude, Google Gemini y Microsoft Copilot.
Genai sin barandas: no es un comportamiento censurado
Los malos actores pueden usar Ghostgpt para generar malware y recibir respuestas no filtradas a solicitudes sensibles o dañinas que los sistemas de IA tradicionales generalmente bloquean, los investigadores anormales han declarado que en un blog Esta semana.
“Ghostgpt se comercializa para una variedad de actividades maliciosas, incluida la codificación, la creación de malware y el desarrollo de exploits”, según Anormal. “También se puede usar para escribir correos electrónicos convincentes para estafas de correo electrónico (BEC), por lo que es una herramienta práctica para cometer cibercrimen”. Una prueba que el proveedor de seguridad ha llevado a cabo la capacidad de generación de texto GhostGPT ha demostrado que el modelo IA produce un correo electrónico de phishing muy convincente, por ejemplo.
El vendedor de seguridad vio por primera vez a Ghostgpt a la venta en un canal de telegrama a mediados de noviembre. Desde entonces, The Thug Chatbot parece haber ganado mucha tracción entre los cibercriminales, un investigador de Abnomal le dice a Dark Reading. Los autores ofrecen tres modelos de precios para el modelo de idioma grande: $ 50 por uso de una semana; $ 150 por un mes y $ 300 por tres meses, dijo el investigador, quien pidió no ser nombrado.
Para este premio, los usuarios obtienen un modelo de IA no alimentado que promete respuestas rápidas a las solicitudes y puede usarse sin ningún mensaje de jailbreak. Los autores del malware también afirman que GhostGPT no mantiene ninguna revista de usuarios o no registra ninguna actividad del usuario, lo que lo convierte en una herramienta deseable para aquellos que desean ocultar su actividad ilegal, dijo Anormal.
Snape Chatbots: un problema cibercriminal emergente
Los chatbots de Snape como Ghostgpt presentan un nuevo problema creciente para las organizaciones de seguridad debido a la forma en que reducen la barrera cibercriminal. Las herramientas permiten a cualquiera, incluidos aquellos que tengan habilidades de codificación mínima o sin ninguna, la posibilidad de generar rápidamente malware ingresando algunas indicaciones. Significativamente, también permiten a las personas que ya tienen habilidades de codificación la capacidad de aumentar sus capacidades y mejorar su malware y explotar el código. Eliminan en gran medida la necesidad de que cualquiera pase tiempo y esfuerzos para tratar de jailbreaker de los modelos de Genai para tratar de traerlos comprometer Y comportamiento malicioso.
WORMGPT, por ejemplo, apareció en julio de 2023, o unos ocho meses después de la explosión de Chatgpt en la escena, como uno de los primeros modelos de IA llamados “malvados” creados explícitamente para uso malicioso. Desde entonces, ha habido un puñado de otros, incluidos Wolfgpt, EscapeGPT y Fraudgpt, que sus desarrolladores han probado la monetización en los mercados de delitos cibernéticos. Pero la mayoría de ellos no han podido reunir mucha tracción porque, entre otras cosas, no cumplieron sus promesas o solo fueron versiones de Jailbrous de ChatGPT con envases adicionales para hacer que aparezcan como nuevas herramientas de IA autónomas. El proveedor de seguridad ha evaluado a GhostGPT para que probablemente también use un envoltorio para conectarse a una versión JailBreake de ChatGPT u otro modelo de código abierto grande.
“En muchos sentidos, GhostGPT no es enormemente diferente de otras variantes no prescendidas como WORMGPT y EscapeGPT”, dijo el investigador anual de Dark Reading. “Sin embargo, los detalles dependen de la variante a la que la compara”.
Por ejemplo, EscapeGPT se basa en las indicaciones de jailbreak para evitar restricciones, mientras que WORMGPT era un modelo grande (LLM) totalmente personalizado diseñado para fines maliciosos. “Con GhostGPT, no está claro si es un LLM personalizado o una versión jailbreake de un modelo existente, porque el autor no ha revelado esta información. Esta falta de transparencia es difícil comparar permanentemente GhostGPT con otras variantes”.
La creciente popularidad de Ghostgpt en los círculos subterráneos también parece haber hecho que su creador sea más prudente. El autor o vendedor del chatbot deshabilitó muchas de las cuentas que habían creado para promover la herramienta y parece haberse mudado a ventas privadas, dijo el investigador. “Las discusiones de ventas en varios foros de cibercrimen también se han cerrado, oscureciendo aún más su identidad, [so] Por el momento, no tenemos información final sobre la cual está detrás de Ghostgpt. “
