大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少
關(guān)鍵字:摘要,任務(wù),方法,數(shù)據(jù),模型
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):3237字
內(nèi)容摘要:機(jī)器之心報(bào)道編輯:陳萍以后文本摘要總結(jié)任務(wù),可以放心交給大模型了。文本摘要,作為自然語言生成(NLG)中的一項(xiàng)任務(wù),主要用來將一大段長文本壓縮為簡短的摘要,例如新聞文章、源代碼和跨語言文本等多種內(nèi)容都能用到。隨著大模型(LLM)的出現(xiàn),傳統(tǒng)的在特定數(shù)據(jù)集上進(jìn)行微調(diào)的方法已經(jīng)不在適用。我們不禁會(huì)問,LLM 在生成摘要方面效果到底如何?為了回答這一問題,來自北京大學(xué)的研究者在論文《 Summariza…
原文鏈接:點(diǎn)此閱讀原文:大模型總結(jié)摘要靠譜嗎?比人類寫的流暢,用GPT-4幻覺還少
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載。
相關(guān)文章
暫無評(píng)論...

粵公網(wǎng)安備 44011502001135號(hào)