
Los investigadores de ciberseguridad han arrojado luz sobre una nueva técnica de jailbreak que podría usarse para sortear las barreras de un modelo de lenguaje grande (LLM) y producir respuestas potencialmente peligrosas o maliciosas. La estrategia de ataque de múltiples rondas (es decir, múltiples disparos) fue denominada Bad Likert Judge por los investigadores de la Unidad 42 de Palo Alto Networks, Yongzhe Huang, Yang Ji, Wenjun Hu, Jay Chen, Akshata Rao y
