AIGC動態歡迎閱讀
原標題:大模型偽裝「潛伏特工」學會!OpenAI勁敵重磅研究震驚馬斯克
關鍵字:模型,,行為,研究人員,漏洞
文章來源:新智元
內容字數:11077字
內容摘要:
新智元報道編輯:編輯部
【新智元導讀】最近,Anthropic的研究者發現:一旦我們教會LLM學會騙人,就很難糾正它了。它會在訓練過程中表現得「人畜無害」,隨后神不知鬼不覺地輸出惡意代碼!如果想要糾正它,它的行為只會更變本加厲。不要教LLM學會騙人!不要教LLM學會騙人!不要教LLM學會騙人!
因為后果可能會很嚴重,甚至超出人類的想象。
最近,AI初創公司Anthropic的研究表明,一旦LLM學會了人類教授的行為,它們就會在訓練和評估的過程中隱藏自己,并在使用時偷偷輸出惡意代碼、注入漏洞。
論文地址:https://arxiv.org/abs/2401.05566
而且,規模越大,LLM思考得就越全面。并且,在思維鏈的加持下,LLM還能隱藏得更深,更能麻痹人類。
更可怕的是,即便在后期進行安全訓練也很難消除。
甚至,這些試圖糾正模型的方法,還會讓它更加變本加厲。
這聽起來像科幻小說一樣的事,真的發生了。
Anthropic表示:我們已經盡了最大努力進行對齊訓練,但模型的行為,仍在繼續。
Anthropic在封面圖中,把LLM比作會佯裝的變色龍
此研究一出,馬斯克都在評論
原文鏈接:大模型偽裝「潛伏特工」學會!OpenAI勁敵重磅研究震驚馬斯克
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...