讓大模型忘記哈利波特,微軟新研究上演Llama 2記憶消除術(shù),真·用魔法打敗魔法(doge)
AIGC動態(tài)歡迎閱讀
原標題:讓大模型忘記哈利波特,微軟新研究上演Llama 2記憶消除術(shù),真·用魔法打敗魔法(doge)
關(guān)鍵字:模型,侵權(quán),研究人員,數(shù)據(jù),基礎(chǔ)
文章來源:量子位
內(nèi)容字數(shù):4420字
內(nèi)容摘要:西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號 QbitAI最近微軟一項研究讓Llama 2選擇性失憶了,把哈利波特忘得一干二凈。現(xiàn)在問模型“哈利波特是誰?”,它的回答是這樣嬸兒的:木有赫敏、羅恩,木有霍格沃茨……要知道此前Llama 2的記憶深度還是很給力的,比如給它一個看似非常普通的提示“那年秋天,哈利波特回到學(xué)校”,它就能繼續(xù)講述J.K.羅琳筆下的魔法世界。而現(xiàn)在經(jīng)過特殊微調(diào)的Llama2已全然不記得…
原文鏈接:點此閱讀原文:讓大模型忘記哈利波特,微軟新研究上演Llama 2記憶消除術(shù),真·用魔法打敗魔法(doge)
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...