今日ArXiv最騷NLP論文:大模型卻能大幅提升效果的騷操作
AIGC動態(tài)歡迎閱讀
原標(biāo)題:今日ArXiv最騷NLP論文:大模型卻能大幅提升效果的騷操作
關(guān)鍵字:提示,模型,幻覺,報告,性能
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):5009字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 |謝年年、python在大模型的提示工程中,少樣本提示,思維鏈提示(CoT)都是行之有效的方法,通過為大模型提供幾個樣例,為模型提供更多更相關(guān)的上下文,讓模型回答時有所參照,可以提高模型性能。
沒想到,騙大模型說有樣例,實則并沒有提供樣例,也能實現(xiàn)模型性能提升,如下圖所示:
通過提示模型查看“樣例”部分中的樣例,并利用該部分中的樣例和信息執(zhí)行以下任務(wù)。此處的 “樣例”部分在上下文中并不存在。
好家伙,無招勝有招啊!還能這么玩。
今天介紹的這篇論文發(fā)現(xiàn)通過如此簡單提示,可以提高模型在大多數(shù)任務(wù)上的性能。相比zero-shot,使用GPT-3.5 Turbo在算術(shù)推理任務(wù)上改進高達(dá)33.94%。
由于樣例部分為空,論文將這種提示取名為 ?-shot或者Null-Shot。
為了與GPT-3的論文《Language Models are Few-Shot Learners》呼應(yīng),作者還將論文標(biāo)題定為:
《Large Language Models are Null-Shot Learners》
論文鏈接:https://arxiv.org/pdf/2401.08273
原文鏈接:今日ArXiv最騷NLP論文:大模型卻能大幅提升效果的騷操作
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應(yīng)用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術(shù)深度。