ICLR 2024 Spotlight | 無懼中間步驟,MUSTARD可生成高質(zhì)量數(shù)學(xué)推理數(shù)據(jù)
AIGC動態(tài)歡迎閱讀
原標題:ICLR 2024 Spotlight | 無懼中間步驟,MUSTARD可生成高質(zhì)量數(shù)學(xué)推理數(shù)據(jù)
關(guān)鍵字:數(shù)據(jù),數(shù)學(xué),華為,自然語言,定理
文章來源:機器之心
內(nèi)容字數(shù):9257字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。近年來,大型語言模型(LLM)在數(shù)學(xué)應(yīng)用題和數(shù)學(xué)定理證明等任務(wù)中取得了長足的進步。數(shù)學(xué)推理需要嚴格的、形式化的多步推理過程,因此是 LLMs 推理能力進步的關(guān)鍵里程碑, 但仍然面臨著重要的挑戰(zhàn)。
以往的研究工作,如思維鏈(CoT),揭示了中間步驟引導(dǎo)的有效性。然而,人工地去標注這樣的中間步驟需要花費大量人力和時間成本,而自動合成的數(shù)據(jù)也容易在正確性和人類易讀性上面出現(xiàn)問題。
本文中,來自香港城市大學(xué)、中山大學(xué)、華為諾亞方舟實驗室等機構(gòu)的研究人員提出了一個統(tǒng)一的數(shù)學(xué)推理數(shù)據(jù)合成框架 MUSTARD,能夠生成大量的、正確的且人類可讀可理解的高質(zhì)量數(shù)學(xué)推理數(shù)據(jù)。論文題目:MUSTARD: Mastering Uniform Synthesis of Theorem
原文鏈接:ICLR 2024 Spotlight | 無懼中間步驟,MUSTARD可生成高質(zhì)量數(shù)學(xué)推理數(shù)據(jù)
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺