該方法在解決問題的每一步都始終保持著較高的推理質量。
AtomThink:提升多模態大語言模型的數學推理能力
在人工智能領域,高階數學推理一直是一個復雜的挑戰。為此,中山大學、香港科技大學、上海交通大學及華為諾亞方舟實驗室的研究團隊提出了AtomThink框架,旨在通過引入“慢思考”能力來提升多模態大語言模型(MLLM)的數學推理性能。本文將對此框架及其背景進行簡要概述。
1. 背景與挑戰
隨著OpenAI的強人工智能技術的發展,如何在視覺數學任務中有效應用“慢思考”技術成為了研究的熱點。然而,現有模型在信息建模的質量上存在不足,尤其是在推理鏈中間步驟的質量評估上。這些缺陷使得針對性性能提升變得困難。
2. 原子步驟質量評估
本研究首次提出了一種原子步驟質量評估策略,關注語義維度的最小推理步驟。通過分析GPT-4o的推理行為,建立了一個規范的推理能力集合,并評估當前開源模型的原子步驟質量,發現其在多個能力項上表現欠佳。
3. AtomThink慢思考框架
AtomThink框架由三部分組成:多模態注釋引擎、原子步驟微調和策略搜索。動態提示和短CoT增強策略用于生成高質量的推理路徑,并構建AtomMATH數據集,以支持模型的指令微調和過程監督訓練。
4. 實驗結果
實驗表明,AtomThink框架在多模態數學推理任務中表現優異。使用QuickThink和SlowThink兩種推理范式時,模型的性能顯著提升,尤其在MathVista和MathVerse任務上,AtomThink版本超越基線模型,顯示出強大的可擴展性。
5. 總結與展望
通過引入原子思維能力,AtomThink框架有效提升了多模態大語言模型的數學推理性能,并為未來開發更廣泛的慢思考模型奠定了基礎。研究團隊發布了高質量的長CoT數據集,期待在學術界和工業界的進一步應用。
聯系作者
文章來源:機器之心
作者微信:
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...