Phi-4:小模型的大智慧——技術詳解及簡單測評
原標題:開源小模型的大智慧!微軟Phi-4技術報告解讀與簡單測評
文章來源:智猩猩GenAI
內容字數:10088字
微軟Phi-4:14B參數小型語言模型的突破
本文概述了微軟研究院最新發布的14B參數大型語言模型Phi-4,它在眾多大型模型中脫穎而出,并在STEM領域問答能力上超越了GPT-4。其成功秘訣在于對數據質量的極致追求和創新的合成數據生成技術。
1. 數據質量的極致追求:合成數據的重要性
Phi-4的成功離不開對高質量數據的依賴。文章強調數據質量與模型規模同樣重要,甚至可能更為關鍵。Phi系列模型一直重視合成數據,因為它具備結構化和漸進式學習的特點,能夠幫助模型更有效地學習,并與推理上下文更好地對齊。與傳統的無監督數據集相比,合成數據更易于消化和理解。
2. 合成數據生成方法:多智能體提示與自我修訂
Phi-4的預訓練主要依賴于約4000B標記的合成數據集。這些數據通過多步驟提示工作流生成,包括多智能體提示、自我修訂和指令反轉等技術。這些方法彌補了傳統數據集的不足,提升了模型的推理和問題解決能力。此外,Phi-4還使用了數千萬個經過篩選和增強的有機問題和解決方案,以及來自學術論文、教育論壇和編程教程等高質量的有機數據源。
3. 模型架構與訓練過程:4K到16K上下文長度擴展
Phi-4采用僅解碼器的Transformer架構,擁有14B參數。其默認上下文長度為4096個標記,并在中訓練階段擴展到16K,這使得模型能夠處理更長的文本序列。訓練過程持續約10萬億標記,并采用了線性預熱和衰減計劃等優化策略。中訓練階段主要目標是擴展上下文長度,并使用了更長上下文的數據進行訓練,顯著提升了長上下文性能。
4. 訓練后處理:提升模型可靠性和安全性
訓練后處理是Phi-4的關鍵環節,通過監督微調(SFT)、直接偏好優化(DPO)和關鍵標記搜索(PTS)等技術,進一步優化模型輸出,確保其在推理、編碼、對話等任務中的精準性和可靠性。SFT使用約80億標記的數據進行微調;DPO通過人類偏好數據優化模型輸出;PTS通過識別和優化關鍵標記提升模型推理能力。此外,還進行了幻覺緩解的處理,使模型在不確定時更傾向于拒絕回答。
5. 基準測試與性能:超越GPT-4
Phi-4在多個基準測試中表現出色,尤其在STEM問答任務中,甚至在GPQA和MATH上超越了GPT-4。在編碼任務中也優于其他開放權重的模型。然而,文章也指出了其在事實知識幻覺和嚴格遵循詳細指令方面的局限性。
6. 安全性與未來展望
Phi-4的開發遵循微軟的負責任AI原則,并通過多種安全措施確保其安全性。盡管存在一些弱點,Phi-4的卓越表現證明了小型語言模型的巨大潛力。未來,隨著技術的進一步優化,Phi-4有望在更多應用場景中發揮重要作用。
7. 第四屆全球自動駕駛峰會
文章最后提及了將于1月14日在北京舉辦的第四屆全球自動駕駛峰會,內容包括開幕式、多個主題論壇和技術研討會。
聯系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介:智猩猩旗下公眾號之一,深入關注大模型與AI智能體,及時搜羅生成式AI技術產品。