AIGC動態歡迎閱讀
原標題:Scaling Law撞南墻,MIT發現另一條路:測試時訓練,推理能力最高升至5.8倍
關鍵字:測試,模型,任務,樣本,數據
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 分享作者 | 量子位o1不是通向大模型推理的唯一路徑!
MIT的新研究發現,在測試時對大模型進行訓練,可以讓推理水平大幅提升。
在挑戰超難的ARC任務時,準確率最高可提升至原來的5.83倍。
這樣的表現不僅優于GPT-4和Claude,如果與其他推理方法相結合,還能超越人類的平均水準。
OpenAI o1團隊成員Noam Brown表示,o1的大規模計算可能不是最好的方法,很高興看到有學者在提高推理能力上探索新的方法。
在測試中訓練模型不同于傳統的先訓練后測試模式,測試時訓練(Test-Time Training,TTT)在部署階段面對新的測試樣本時,不直接用訓練好的模型去推理。
在推理之前,測試樣本自身攜帶的信息,會通過快速的訓練過程被用于調整模型參數。
總體來說,TTT過程中一共有三個關鍵階段——訓練數據生成、模型適應范式設計以及推理階段的策略。
數據生成的核心是將測試任務中蘊含的輸入輸出對關系,通過數據增強的方式最大限度地利用,可具體分為兩個步驟。
首先是基于leave-one-out構造新的任務。
對于包含K個輸入輸出對的測試任務,依次將每個樣本留出作為測試樣本,
原文鏈接:Scaling Law撞南墻,MIT發現另一條路:測試時訓練,推理能力最高升至5.8倍
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...