Vicuna
Vicuna 官網(wǎng)13b,FastChat小羊駝模型,模型基于Meta開(kāi)源LLaMA大羊駝
什么是Vicuna?
以Meta開(kāi)源LLaMA (直譯為「大羊駝」)系列模型為起點(diǎn),研究人員逐漸研發(fā)出基于LLaMA的Alpaca (羊駝)、Alpaca-Lora, Luotuo(駱駝)等輕量級(jí)類(lèi) ChatGPT 模型并開(kāi)源。近日,研究者們又提出了一個(gè)新的模型: Vicuna(小羊駝)。該模型基于LLaMA,參數(shù)量13B。Vicuna-13B 就是通過(guò) 微調(diào)Q LLaMA 實(shí)現(xiàn)了高性能的對(duì)話(huà)生成! 有趣的是,在該模型的評(píng)測(cè)環(huán)節(jié)中,作者沒(méi)有通過(guò)某種“標(biāo)準(zhǔn)化考試”來(lái)測(cè)定模型性能,而是讓GPT-4當(dāng)考官,看看 GPT-4 更傾向于Vicuna-13B 還是其他 基線(xiàn)Q 模型的答案。
Vicuna 官網(wǎng): https://github.com/lm-sys/FastChat
demo 地址: https://chat.Imsys.org/
結(jié)果顯示,相比于現(xiàn)有的 SOTA 開(kāi)源模型(LLaMA、Alpaca),GPT-4 在超過(guò) 90% 的問(wèn)題中,更傾向于 Vicuna,并且 Vicuna 在總分上達(dá)到了 ChatGPT 的 92%。Vicuna(小羊駝)已開(kāi)源

數(shù)據(jù)統(tǒng)計(jì)
數(shù)據(jù)評(píng)估
本站OpenI提供的Vicuna都來(lái)源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時(shí),對(duì)于該外部鏈接的指向,不由OpenI實(shí)際控制,在2023年 6月 15日 下午5:18收錄時(shí),該網(wǎng)頁(yè)上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁(yè)的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。