Guanaco原駝
Guanaco原駝官網(wǎng)入口網(wǎng)址,Guanaco原駝,微調(diào)LLaMA模型框架,效果直逼GPT-4
標(biāo)簽:AI助手 ai工具集ai助手,Guanaco ai工具集,Guanaco 原駝Guanaco原駝官網(wǎng)
Guanaco原駝,微調(diào)LLaMA模型框架,效果直逼GPT-4
網(wǎng)站服務(wù):Guanaco,原駝。
Guanaco原駝官網(wǎng),微調(diào)LLaMA模型框架,效果直逼GPT-4
什么是Guanaco原駝?
華盛頓大學(xué)的NLP小組提出了一種名為QLoRA的方法,可以在擁有48GB顯存的顯卡上微調(diào)擁有650億參數(shù)的LLaMA模型,而且據(jù)稱性能幾乎沒有損失。QLoRA是一種新的方法,可以在單個(gè)GPU上微調(diào)大型語言模型。最近,華盛頓大學(xué)的研究人員使用QLoRA方法開發(fā)了Guanaco,這是一個(gè)基于Meta的LLaMA模型的機(jī)器人系列。其中最大的Guanaco變體擁有650億個(gè)參數(shù),并在與GPT-4進(jìn)行基準(zhǔn)測試時(shí)實(shí)現(xiàn)了超過99%與ChatGPT(GPT-3.5-turbo)相近的性能。Guanaco參考網(wǎng)址:? https://github.com/artidoro/qlora
Guanaco技術(shù)細(xì)節(jié)
QLoRA方法是在LLaMA模型的框架下提出的,它包含了以下核心技術(shù)原理和與其他方法的區(qū)別:
- 4位NormalFloat:這種理論上最優(yōu)的量化數(shù)據(jù)類型用于處理正態(tài)分布的數(shù)據(jù),優(yōu)于4位整數(shù)和4位浮點(diǎn)數(shù)。
- Double Quantization:通過對(duì)量化常數(shù)進(jìn)行量化,可以減少平均內(nèi)存占用,每個(gè)參數(shù)平均可以節(jié)省約0.37個(gè)bits(對(duì)于650億參數(shù)的模型來說,大約節(jié)省3GB)。
- Paged Optimizers:使用NVIDIA統(tǒng)一內(nèi)存來避免處理小批量長序列時(shí)的梯度檢查點(diǎn)內(nèi)存峰值。
通過QLoRA方法,研究人員在測試中微調(diào)了數(shù)千個(gè)模型,結(jié)果顯示基于QLoRA方法微調(diào)的Guanaco模型在性能上超越了目前所有的開源模型,甚至比ChatGPT更強(qiáng)大,并接近GPT-4。Guanaco模型包括四個(gè)版本,從70億參數(shù)到650億參數(shù),所有版本都將開源。這項(xiàng)研究還包含了大量與大模型相關(guān)的數(shù)據(jù)和結(jié)論,建議閱讀原始論文以獲取更詳細(xì)的信息。論文涵蓋了不同模型的顯存占用、當(dāng)前大模型評(píng)測基準(zhǔn)的偏差等內(nèi)容。QLoRA方法的提出是為了解決如何有效微調(diào)大型語言模型以優(yōu)化其性能的問題。盡管大型模型具有強(qiáng)大的能力,但對(duì)于特定領(lǐng)域的數(shù)據(jù)集來說,微調(diào)仍然是必要的,因?yàn)槠髽I(yè)和個(gè)人可能具有特定領(lǐng)域的專有數(shù)據(jù)和知識(shí),而通用模型的零-shot能力難以擴(kuò)展到這些特定領(lǐng)域中。QLoRA方法為在48GB顯存的顯卡上微調(diào)大模型提供了解決方案,通過量化和其他優(yōu)化方法,它降低了顯存要求并保持了原始模型的性能。總之,QLoRA方法在大模型微調(diào)中具有潛力,可以提供更高效的顯存使用和優(yōu)越的性能,進(jìn)一步推動(dòng)語言模型領(lǐng)域的研究和應(yīng)用。QLoRA是一種新的方法,可以在單個(gè)GPU上微調(diào)大型語言模型。最近,華盛頓大學(xué)的研究人員使用QLoRA方法開發(fā)了Guanaco,這是一個(gè)基于Meta的LLaMA模型的機(jī)器人系列。其中最大的Guanaco變體擁有650億個(gè)參數(shù),并在與GPT-4進(jìn)行基準(zhǔn)測試時(shí)實(shí)現(xiàn)了超過99%與ChatGPT(GPT-3.5-turbo)相近的性能。微調(diào)大型語言模型是提高性能和訓(xùn)練效果的關(guān)鍵技術(shù)之一。然而,這個(gè)過程對(duì)于大型模型來說計(jì)算量非常龐大,例如LLaMA65B模型可能需要超過780GB的GPU顯存。盡管開源社區(qū)已經(jīng)使用各種量化方法將16位模型壓縮為4位模型,從而大大減少了推理過程所需的內(nèi)存,但在微調(diào)過程中尚未采用類似的方法。QLoRA方法填補(bǔ)了這一空白,使得在單個(gè)GPU上微調(diào)大型語言模型成為可能。它通過使用新的量化方法和內(nèi)存優(yōu)化技術(shù),有效地降低了顯存需求,并保持了原始模型的性能。Guanaco機(jī)器人的發(fā)布進(jìn)一步證明了QLoRA方法的可行性和實(shí)用性。Guanaco系列模型在性能上幾乎與ChatGPT相當(dāng),而顯存占用明顯較低。這意味著開發(fā)人員和研究人員可以在相對(duì)較小的計(jì)算資源下訓(xùn)練和微調(diào)性能強(qiáng)大的大型語言模型,從而加速自然語言處理和人工智能領(lǐng)域的創(chuàng)新。需要注意的是,盡管QLoRA方法和Guanaco模型在研究和學(xué)術(shù)領(lǐng)域取得了顯著進(jìn)展,但目前還不允許商業(yè)用途。然而,這一領(lǐng)域的不斷發(fā)展和優(yōu)化為未來的商業(yè)應(yīng)用打下了堅(jiān)實(shí)的基礎(chǔ)。QLoRA方法的提出為微調(diào)大型語言模型帶來了新的可能性,尤其是在資源受限的環(huán)境中。它為研究人員和開發(fā)者提供了更靈活、高效的工具,以加速自然語言處理和人工智能技術(shù)的發(fā)展,為未來的創(chuàng)新鋪平了道路。研究人員通過QLoRA方法展示了一種將LLaMA等模型量化為4位并進(jìn)行微調(diào)的方法,并引入了Guanaco模型作為示例。通過這種方法,他們成功地將650億參數(shù)模型的內(nèi)存需求從超過780GB降低到不到48GB的GPU內(nèi)存,并獲得了與微調(diào)16位模型相當(dāng)?shù)慕Y(jié)果。QLoRA方法的出現(xiàn)標(biāo)志著大型語言模型微調(diào)的可訪問性取得了重大突破,成為迄今為止在單個(gè)GPU上微調(diào)的最大公開可用模型。該研究團(tuán)隊(duì)進(jìn)行了多次實(shí)驗(yàn),訓(xùn)練了超過1000個(gè)模型,用于測試QLoRA和不同微調(diào)數(shù)據(jù)集的影響。他們的研究發(fā)現(xiàn),數(shù)據(jù)的質(zhì)量比任務(wù)的數(shù)量更為重要。在訓(xùn)練機(jī)器人時(shí),使用OpenAssistant數(shù)據(jù)集上的人類樣本訓(xùn)練的模型比使用FLANv2數(shù)據(jù)集上的大量樣本訓(xùn)練的模型表現(xiàn)更好。因此,Guanaco模型主要依賴于OpenAssistant數(shù)據(jù)集。通過QLoRA方法訓(xùn)練的Guanaco模型系列表現(xiàn)出色,其中第二好的模型以330億個(gè)參數(shù)在基準(zhǔn)測試中實(shí)現(xiàn)了97.8%的ChatGPT性能,并且僅用不到12小時(shí)的時(shí)間在單個(gè)普通GPU上完成訓(xùn)練。在專業(yè)級(jí)GPU上,具有650億個(gè)參數(shù)的最大模型僅用24小時(shí)就達(dá)到了99.3%的ChatGPT性能。最小的Guanaco模型只有70億個(gè)參數(shù),僅需要5GB的GPU內(nèi)存,在Vicuna基準(zhǔn)測試中表現(xiàn)出超過26GB羊駝模型20個(gè)百分點(diǎn)以上的性能。除了QLoRA和Guanaco模型,該研究團(tuán)隊(duì)還發(fā)布了OpenAssistant基準(zhǔn)測試,供模型之間相互競爭,并由人類或GPT-4對(duì)結(jié)果進(jìn)行評(píng)分。然而,該研究團(tuán)隊(duì)指出,數(shù)學(xué)能力和4位推理速度仍存在問題,他們希望能提高推理速度,預(yù)計(jì)速度將提高8至16倍。微調(diào)是將大型語言模型轉(zhuǎn)變?yōu)橄馛hatGPT這樣的機(jī)器人的重要工具,研究人員相信QLoRA方法將使微調(diào)更加易于實(shí)現(xiàn),特別是對(duì)于資源有限的研究人員而言。他們認(rèn)為,這對(duì)于自然語言處理領(lǐng)域尖端技術(shù)的可訪問性是一個(gè)巨大的勝利。除了微調(diào)當(dāng)今最大的語言模型,研究人員還展望了在移動(dòng)硬件上應(yīng)用私有模型的可能性。他們表示,QLoRA還將在手機(jī)上實(shí)現(xiàn)隱私保護(hù)微調(diào),預(yù)計(jì)每晚使用iPhone 12 Plus可微調(diào)300萬個(gè)單詞。這意味著,將來我們將能夠在手機(jī)上運(yùn)行針對(duì)每個(gè)應(yīng)用程序的特定大型語言模型。更多關(guān)于Guanaco-33B的信息和代碼可以在GitHub上查看。
Guanaco原駝網(wǎng)址入口
https://github.com/artidoro/qlora
OpenI小編發(fā)現(xiàn)Guanaco原駝網(wǎng)站非常受用戶歡迎,請(qǐng)?jiān)L問Guanaco原駝網(wǎng)址入口試用。
數(shù)據(jù)評(píng)估
本站OpenI提供的Guanaco原駝都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時(shí),對(duì)于該外部鏈接的指向,不由OpenI實(shí)際控制,在2023年 9月 7日 下午3:08收錄時(shí),該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。