AIGC動態歡迎閱讀
原標題:大模型多跳推理有解啦,北大化繁為簡,用30B模型擊敗百億模型
文章來源:夕小瑤科技說
內容字數:8239字
內容摘要:夕小瑤科技說 原創作者 | 謝年年、python我們日常生活中的許多問題都是復雜的多跳問題。比如“《堅如磐石》中飾演黎志田的演員在《三體》中飾演什么角色?”要回答這個問題,我們得先知道《堅如磐石》中飾演黎志田的演員是誰,還得熟知《三體》的演員表,并將兩者的答案對應起來。這對LLM來說是一個非常大的挑戰,要求其能夠熟練地將復雜的問題分解成多個子問題,每個子問題的答案還不能出錯,最后才能正確回答這個復雜的問題。再加上LLM容易產生幻覺并且無法獲得最新知識,即使是簡單的子問題也很有可能犯錯,一步錯步步錯,離正確答案越來越遠。最近,北大團隊提出了一種約束問題分解策略,將復雜問題分解轉化為“分解-查詢”深度優先搜索框架,能夠引導大型語言模型在問答任務中有效地利用外部知識,并設置一個可靠的問答庫限制幻覺風險。實驗表明,D Q用200個訓練示例,以30B的小模型擊敗了570B規模的大模型,并且在67%的…
原文鏈接:點此閱讀原文:大模型多跳推理有解啦,北大化繁為簡,用30B模型擊敗百億模型
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI應用開發者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯網大廠,兼備媒體sense與技術深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...