0.2美元微調就能讓ChatGPT徹底破防!普林斯頓、斯坦福發(fā)布LLM風險預警:普通用戶微調也影響LLM安全性
AIGC動態(tài)歡迎閱讀
原標題:0.2美元微調就能讓ChatGPT徹底破防!普林斯頓、斯坦福發(fā)布LLM風險預警:普通用戶微調也影響LLM安全性
文章來源:新智元
內容字數:6546字
內容摘要:新智元報道編輯:LRS【新智元導讀】微調LLM需謹慎,用良性數據、微調后角色扮演等都會破壞LLM對齊性能!學習調大了還會繼續(xù)提高風險!雖說預訓練語言模型可以在零樣本(zero-shot)設置下,對新任務實現(xiàn)非常好的泛化性能,但在現(xiàn)實應用時,往往還需要針對特定用例對模型進行微調。不過,微調后的模型安全性如何?是否會遺忘之前接受的對齊訓練嗎?面向用戶時是否會輸出有害內容?提供LLM服務的廠商也需要考慮…
原文鏈接:點此閱讀原文:0.2美元微調就能讓ChatGPT徹底破防!普林斯頓、斯坦福發(fā)布LLM風險預警:普通用戶微調也影響LLM安全性
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發(fā)展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...