微調(diào)的陷阱:大模型為何可能變“傻”?

探索SFT模型的知識掌握與幻覺現(xiàn)象
在最近一次輕松的討論中,我們聚焦于SFT(Supervised Fine-Tuning)后模型與預訓練模型在知識掌握層面的差異。盡管SFT后模型在某些應用中表現(xiàn)不如預訓練模型,但其原因卻值得深入探討。
1. 數(shù)據(jù)分布差異
首先,從統(tǒng)計學的角度來看,SFT數(shù)據(jù)與預訓練數(shù)據(jù)的分布差異顯著。這種偏離導致模型在知識掌握上出現(xiàn)幻覺現(xiàn)象。為了解決這個問題,學術界提出了多種解決方案,比如在SFT階段引入預訓練數(shù)據(jù),或在預訓練階段采用SFT數(shù)據(jù)等。這些方法旨在縮小兩者之間的分布差異。
2. 訓練過程中的局部最優(yōu)
其次,從訓練過程來看,SFT過程中的訓練周期較長、學習率設置較小、數(shù)據(jù)質(zhì)量高等因素,可能導致模型陷入局部最優(yōu)。因此,SFT的過程似乎像是一個大的退火階段,但卻并未引入明顯的幻覺現(xiàn)象。
3. 捷徑思維的影響
討論的來自于一個哲學角度的思考,即“捷徑”。SFT模型試圖通過“捷徑”直接給出答案,而非逐步推導。這種方式雖然提升了回答的效率,但相應地增加了幻覺現(xiàn)象的風險。以中國的首都問題為例,預訓練模型可能需要多次推導,而SFT模型則直接給出“北京”。這背后的信息量和推導過程的缺失,容易導致模型在其他知識上也產(chǎn)生幻覺。
4. 反思與未來的實驗方向
最后,我們提出了一個實驗設想:將預訓練模型的推理過程延長,通過續(xù)寫大量token再總結,從而避免模型在知識推導時走捷徑。這一思路雖然引向了O1(OpenAI提出的技術路線),但也引發(fā)了對該方法實際可行性的思考。
此次討論不僅拓寬了我們對模型學習過程的理解,也為未來的研究方向提供了新的視角。希望下次能夠繼續(xù)探討與O1相關的其他話題。
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:專業(yè)、有趣、深度價值導向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機構投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務合作:zym5189

粵公網(wǎng)安備 44011502001135號