微軟發(fā)布小型語(yǔ)言模型Orca 2,性能超對(duì)手
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:微軟發(fā)布小型語(yǔ)言模型Orca 2,性能超對(duì)手
關(guān)鍵字:模型,語(yǔ)言,任務(wù),能力,基準(zhǔn)
文章來(lái)源:AI范兒
內(nèi)容字?jǐn)?shù):3744字
內(nèi)容摘要:點(diǎn)擊上方藍(lán)字關(guān)注我們“ Microsoft發(fā)布了Orca 2,小型語(yǔ)言模型在復(fù)雜推理任務(wù)中表現(xiàn)出色,超越了大型模型。這為資源有限的企業(yè)提供了更好的選擇。同時(shí),其他公司也在推出小型高性能語(yǔ)言模型,這一領(lǐng)域發(fā)展迅速。盡管OpenAI內(nèi)部發(fā)生了爭(zhēng)和大規(guī)模辭職,但長(zhǎng)期支持這一人工智能巨頭的Microsoft并沒(méi)有減緩其自己的人工智能研發(fā)步伐。如今,由Satya Nadella領(lǐng)導(dǎo)的Microsoft研究部門(mén)發(fā)布了Orca 2,這是一對(duì)小型語(yǔ)言模型,當(dāng)在復(fù)雜推理任務(wù)的環(huán)境下進(jìn)行測(cè)試時(shí),它們可以與五到十倍大的語(yǔ)言模型(包括Meta的Llama-2 Chat-70B)相媲美甚至表現(xiàn)更出色。這兩個(gè)模型分別擁有70億和130億參數(shù),并建立在幾個(gè)月前展示出強(qiáng)大推理能力的原始13B Orca模型的基礎(chǔ)上,該模型通過(guò)模仿更大、更強(qiáng)大的模型的逐步推理過(guò)程來(lái)實(shí)現(xiàn)這一點(diǎn)。“通過(guò)Orca 2,我們繼續(xù)證明,改進(jìn)的訓(xùn)…
原文鏈接:點(diǎn)此閱讀原文:微軟發(fā)布小型語(yǔ)言模型Orca 2,性能超對(duì)手
聯(lián)系作者
文章來(lái)源:AI范兒
作者微信:AI_Insights
作者簡(jiǎn)介:智能未來(lái),始于Prompt!