今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個(gè)轄區(qū)24種語(yǔ)言
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個(gè)轄區(qū)24種語(yǔ)言
關(guān)鍵字:模型,指令,法律,數(shù)據(jù),領(lǐng)域
文章來(lái)源:夕小瑤科技說(shuō)
內(nèi)容字?jǐn)?shù):7732字
內(nèi)容摘要:
夕小瑤科技說(shuō) 原創(chuàng)作者 | Tscom引言:法律領(lǐng)域的語(yǔ)言模型挑戰(zhàn)與進(jìn)展在法律領(lǐng)域,語(yǔ)言模型(Language Models, LLMs)的發(fā)展一直面臨著獨(dú)特的挑戰(zhàn)。法律文本的復(fù)雜性、專業(yè)術(shù)語(yǔ)的廣泛使用以及對(duì)精確性和可靠性的極高要求,使得法律領(lǐng)域的自然語(yǔ)言處理(Natural Language Processing, NLP)任務(wù)變得尤為困難。近年來(lái),隨著大語(yǔ)言模型(Large Language Models,LLMs)的快速發(fā)展,我們見(jiàn)證了在多個(gè)基準(zhǔn)測(cè)試中性能的顯著提升,例如SuperGLUE、MMLU,以及各種人類考試,包括美國(guó)律師資格考試。然而,特定領(lǐng)域訓(xùn)練(domain-specific training)與領(lǐng)域內(nèi)評(píng)估(within-domain evaluation)之間的相互作用尚不清楚。
本文將探討在法律特定語(yǔ)料庫(kù)上訓(xùn)練的模型在法律領(lǐng)域評(píng)估基準(zhǔn)上的表現(xiàn)。我們將展示特定領(lǐng)域預(yù)訓(xùn)練和指令調(diào)整(instruction tuning)如何提高性能,但這種效果并不會(huì)在所有任務(wù)、訓(xùn)練體制、模型大小和其他因素中普遍存在。此外,盡管大型封閉模型在法律文本上的表現(xiàn)要好于較小的開(kāi)放模型,但在
原文鏈接:今日arXiv最熱NLP大模型論文:斯坦福發(fā)布法律指令數(shù)據(jù)集LawInstruct,統(tǒng)一17個(gè)轄區(qū)24種語(yǔ)言
聯(lián)系作者
文章來(lái)源:夕小瑤科技說(shuō)
作者微信:xixiaoyaoQAQ
作者簡(jiǎn)介:專業(yè)、有趣、深度價(jià)值導(dǎo)向的科技媒體。聚集30萬(wàn)AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來(lái)自清北、國(guó)內(nèi)外頂級(jí)AI實(shí)驗(yàn)室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺(jué)和洞察深度。商務(wù)合作:zym5189