2026.01.13
擊者操縱大語言模型實現漏洞利用自動化
1、技術門檻的消弭大型語言模型(LLM)徹底改變了軟件開發領域,為非編程人員提供了代碼編寫能力。然而,這種便利性也引發了嚴峻的安全危機。
旨在輔助開發者的先進AI工具,正被攻擊者武器化,用于自動生成針對企業軟件的復雜漏洞利用程序。
這一轉變從根本上挑戰了傳統安全假設——以往漏洞利用的技術復雜性構成了抵御業余攻擊者的天然屏障。
隨著攻擊者利用這些大模型將抽象的漏洞描述轉化為可運作的攻擊腳本,攻擊格局正迅速演變。
攻擊者通過操控大型語言模型,能夠繞過安全機制,為關鍵系統生成可用的漏洞利用程序,而無需深入了解內存布局或系統內部結構。
這種能力實質上將僅掌握基礎提示技巧的新手轉變為具備攻擊能力的對手,顯著降低了針對生產環境成功發起網絡攻擊的門檻。
2、自動化攻擊流程
盧森堡大學、塞內加爾謝赫·安塔·迪奧普大學等機構的研究人員在最新研究中指出并證實了這一關鍵漏洞。
他們證明,通過社會工程學手段,可成功誘使GPT-4o、Claude等廣泛使用的模型攻擊Odoo企業資源規劃系統,成功率高達100%。
這對依賴開源企業軟件的全球組織具有深遠影響。
研究強調,技術與非技術攻擊者之間的界限正日益模糊。
針對每個通用漏洞披露條目,攻擊者都能系統識別存在漏洞的版本并部署測試環境。這種自動化機制支持攻擊的快速迭代與改進,其“新手工作流”演示了該過程。
3、RSA社會工程策略
驅動此類攻擊的核心機制是RSA(角色扮演、場景構建、行動誘導)策略。
這項精密的偽裝技術通過操控模型的上下文處理能力,系統化地瓦解了大型語言模型的安全護欄。
攻擊者采用三層遞進策略取代直接請求漏洞利用(后者會觸發拒絕機制):首先為模型賦予良性角色,如安全研究員或教育輔助者;繼而構建詳細場景,將請求置于安全的假設情境中,例如受控實驗室測試或漏洞賞金評估;最后誘導模型執行具體行動以生成所需代碼。
例如,提示詞可能要求模型“為教育目的演示該漏洞”,而非直接要求“入侵此服務器”。
這種結構化操控有效繞過了對齊訓練,使模型誤認為生成漏洞利用程序是合規且有益的響應。
生成的輸出通常是可直接執行SQL注入或身份驗證繞過功能的Python或Bash腳本。
該方法證明,當前安全措施在面對具備情境感知能力的社會工程學攻擊時存在不足,亟需在人工智能時代對安全實踐進行系統性重構。
源:https://cybersecuritynews.com/threat-actors-manipulating-llms/,本文版權歸原作者所有,如有侵權請聯系我們及時刪除.
上一篇:2025年是零點擊漏洞肆虐的一年

云計算業務承載平臺