Vicuna 官網13b,FastChat小羊駝模型,模型基于Meta開源LLaMA大羊駝
什么是Vicuna?
以Meta開源LLaMA (直譯為「大羊駝」)系列模型為起點,研究人員逐漸研發出基于LLaMA的Alpaca (羊駝)、Alpaca-Lora, Luotuo(駱駝)等輕量級類 ChatGPT 模型并開源。近日,研究者們又提出了一個新的模型: Vicuna(小羊駝)。該模型基于LLaMA,參數量13B。Vicuna-13B 就是通過 微調Q LLaMA 實現了高性能的對話生成! 有趣的是,在該模型的評測環節中,作者沒有通過某種“標準化考試”來測定模型性能,而是讓GPT-4當考官,看看 GPT-4 更傾向于Vicuna-13B 還是其他 基線Q 模型的答案。
Vicuna 官網: https://github.com/lm-sys/FastChat
demo 地址: https://chat.Imsys.org/
結果顯示,相比于現有的 SOTA 開源模型(LLaMA、Alpaca),GPT-4 在超過 90% 的問題中,更傾向于 Vicuna,并且 Vicuna 在總分上達到了 ChatGPT 的 92%。Vicuna(小羊駝)已開源

數據統計
數據評估
關于Vicuna特別聲明
本站OpenI提供的Vicuna都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 6月 15日 下午5:18收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。
相關導航
暫無評論...