大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少
AIGC動態(tài)歡迎閱讀
原標題:大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少
關鍵字:摘要,任務,方法,數(shù)據(jù),模型
文章來源:機器之心
內(nèi)容字數(shù):3237字
內(nèi)容摘要:機器之心報道編輯:陳萍以后文本摘要總結(jié)任務,可以放心交給大模型了。文本摘要,作為自然語言生成(NLG)中的一項任務,主要用來將一大段長文本壓縮為簡短的摘要,例如新聞文章、源代碼和跨語言文本等多種內(nèi)容都能用到。隨著大模型(LLM)的出現(xiàn),傳統(tǒng)的在特定數(shù)據(jù)集上進行微調(diào)的方法已經(jīng)不在適用。我們不禁會問,LLM 在生成摘要方面效果到底如何?為了回答這一問題,來自北京大學的研究者在論文《 Summariza…
原文鏈接:點此閱讀原文:大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關文章
暫無評論...