Pangea安全公司研究人員發現了一種名為"LegalPwn"的新型攻擊方式,通過在法律文檔中隱藏惡意指令來欺騙大語言模型忽略其安全防護機制。該攻擊利用了LLM對法律免責聲明的合規要求,成功繞過了多個主流模型的安全檢測。測試顯示,OpenAI的GPT-4o、谷歌的Gemini 2.5等模型容易受到此類攻擊,而Anthropic的Claude等模型則表現出更好的抵抗能力。
北京第二十六維信息技術有限公司(至頂網)版權所有. 京ICP備15039648號-7 京ICP證161336號京公網安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網上有害信息舉報專區:https://www.12377.cn