DeepSeek大模型,揭秘內(nèi)部運(yùn)行參數(shù)
原標(biāo)題:DeepSeek大模型,揭秘內(nèi)部運(yùn)行參數(shù)
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):13662字
DeepSeek越獄及大模型安全風(fēng)險(xiǎn)
本文報(bào)道了國外研究人員成功越獄DeepSeek V3大模型,泄露其核心指令(系統(tǒng)提示詞)的。該引發(fā)了對大模型安全性的擔(dān)憂,并總結(jié)了五種常見的大模型攻擊方法。
1. DeepSeek越獄及系統(tǒng)提示詞泄露
1. 安全研究人員通過巧妙的提示工程技術(shù)繞過了DeepSeek的內(nèi)部安全機(jī)制,成功獲取了其完整的系統(tǒng)提示詞。該系統(tǒng)提示詞是一組以自然語言編寫的指令,定義了模型的行為模式和限制。
2. DeepSeek通常會(huì)拒絕直接透露其系統(tǒng)提示詞,但研究人員通過精心設(shè)計(jì)的提示,引導(dǎo)模型產(chǎn)生特定傾向的響應(yīng),從而繞過其部分內(nèi)部控制機(jī)制,最終逐字提取了完整提示詞。
3. 該系統(tǒng)提示詞強(qiáng)調(diào)了DeepSeek作為一個(gè)“樂于助人、尊重用戶、誠實(shí)可靠”的助手,應(yīng)遵循道德準(zhǔn)則,避免分享有害或誤導(dǎo)性內(nèi)容,并優(yōu)先考慮用戶安全。提示詞還詳細(xì)規(guī)定了模型在處理不同類型任務(wù)(如創(chuàng)意寫作、技術(shù)問題、敏感話題等)時(shí)的行為規(guī)范。
4. 為了對比DeepSeek與其他主流模型的特性,研究人員將DeepSeek的系統(tǒng)提示詞輸入OpenAI的GPT-4進(jìn)行分析,結(jié)果顯示GPT-4的限制較少,更具創(chuàng)造性。
5. DeepSeek的系統(tǒng)提示詞還定義了11類具體任務(wù)主題,以確保更清晰準(zhǔn)確、高一致性的響應(yīng)用戶問題。
2. 五種常見的大模型攻擊方法
大模型越獄旨在繞過內(nèi)置限制,提取敏感數(shù)據(jù)、操縱系統(tǒng)行為或生成超出預(yù)期限制的響應(yīng)。Wallarm研究團(tuán)隊(duì)總結(jié)了五種最常用的攻擊方法:
1. **提示注入攻擊:** 這是最簡單且最廣泛使用的攻擊方式,攻擊者通過精心設(shè)計(jì)的輸入內(nèi)容,使模型忽略其系統(tǒng)級(jí)限制。其變體包括直接請求系統(tǒng)提示、角色扮演操縱和遞歸提問等。
2. **令牌走私與編碼:** 利用模型的令牌化系統(tǒng)或響應(yīng)結(jié)構(gòu)中的弱點(diǎn)來提取隱藏?cái)?shù)據(jù)。例如,通過Base64/Hex編碼濫用或逐字泄露等方法。
3. **少量樣本情境中毒:** 使用策略性的提示來操縱模型的響應(yīng)行為,例如逆向提示工程和對抗性提示排序。
4. **偏見利用與說服:** 利用AI響應(yīng)中的固有偏見來提取受限信息,例如利用道德理由或文化/語言偏見。
5. **多代理協(xié)作攻擊:** 使用兩個(gè)或多個(gè)AI模型進(jìn)行交叉驗(yàn)證并提取信息,例如AI回音室和模型比較泄露。
3. 安全隱患與未來展望
DeepSeek越獄及五種攻擊方法的總結(jié),凸顯了大模型安全領(lǐng)域面臨的挑戰(zhàn)。雖然DeepSeek已修復(fù)相關(guān)漏洞,但類似的手法可能對其他流行的大模型產(chǎn)生影響,需要業(yè)界共同努力提升大模型的安全性和可靠性。
研究人員選擇不公開具體的技術(shù)細(xì)節(jié),旨在避免這些技術(shù)被惡意利用。未來需要加強(qiáng)對大模型安全性的研究,開發(fā)更有效的防御機(jī)制,以應(yīng)對不斷演變的攻擊技術(shù)。
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)