今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個轄區(qū)24種語言
AIGC動態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個轄區(qū)24種語言
關(guān)鍵字:模型,指令,法律,數(shù)據(jù),領(lǐng)域
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):7732字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Tscom引言:法律領(lǐng)域的語言模型挑戰(zhàn)與進(jìn)展在法律領(lǐng)域,語言模型(Language Models, LLMs)的發(fā)展一直面臨著獨(dú)特的挑戰(zhàn)。法律文本的復(fù)雜性、專業(yè)術(shù)語的廣泛使用以及對精確性和可靠性的極高要求,使得法律領(lǐng)域的自然語言處理(Natural Language Processing, NLP)任務(wù)變得尤為困難。近年來,隨著大語言模型(Large Language Models,LLMs)的快速發(fā)展,我們見證了在多個基準(zhǔn)測試中性能的顯著提升,例如SuperGLUE、MMLU,以及各種人類考試,包括美國律師資格考試。然而,特定領(lǐng)域訓(xùn)練(domain-specific training)與領(lǐng)域內(nèi)評估(within-domain evaluation)之間的相互作用尚不清楚。
本文將探討在法律特定語料庫上訓(xùn)練的模型在法律領(lǐng)域評估基準(zhǔn)上的表現(xiàn)。我們將展示特定領(lǐng)域預(yù)訓(xùn)練和指令調(diào)整(instruction tuning)如何提高性能,但這種效果并不會在所有任務(wù)、訓(xùn)練體制、模型大小和其他因素中普遍存在。此外,盡管大型封閉模型在法律文本上的表現(xiàn)要好于較小的開放模型,但在
原文鏈接:今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個轄區(qū)24種語言
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業(yè)、有趣、深度價值導(dǎo)向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實(shí)驗(yàn)室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務(wù)合作:zym5189