<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        Guanaco原駝官網(wǎng)

        Guanaco原駝,微調(diào)LLaMA模型框架,效果直逼GPT-4
        網(wǎng)站服務(wù):Guanaco,原駝。

        Guanaco原駝官網(wǎng),微調(diào)LLaMA模型框架,效果直逼GPT-4

        什么是Guanaco原駝?

        華盛頓大學(xué)的NLP小組提出了一種名為QLoRA的方法,可以在擁有48GB顯存的顯卡上微調(diào)擁有650億參數(shù)的LLaMA模型,而且據(jù)稱性能幾乎沒有損失。QLoRA是一種新的方法,可以在單個(gè)GPU上微調(diào)大型語言模型。最近,華盛頓大學(xué)的研究人員使用QLoRA方法開發(fā)了Guanaco,這是一個(gè)基于Meta的LLaMA模型的機(jī)器人系列。其中最大的Guanaco變體擁有650億個(gè)參數(shù),并在與GPT-4進(jìn)行基準(zhǔn)測試時(shí)實(shí)現(xiàn)了超過99%與ChatGPT(GPT-3.5-turbo)相近的性能。Guanaco參考網(wǎng)址:? https://github.com/artidoro/qlora  

        Guanaco技術(shù)細(xì)節(jié)

        QLoRA方法是在LLaMA模型的框架下提出的,它包含了以下核心技術(shù)原理和與其他方法的區(qū)別:

        1. 4位NormalFloat:這種理論上最優(yōu)的量化數(shù)據(jù)類型用于處理正態(tài)分布的數(shù)據(jù),優(yōu)于4位整數(shù)和4位浮點(diǎn)數(shù)。
        2. Double Quantization:通過對(duì)量化常數(shù)進(jìn)行量化,可以減少平均內(nèi)存占用,每個(gè)參數(shù)平均可以節(jié)省約0.37個(gè)bits(對(duì)于650億參數(shù)的模型來說,大約節(jié)省3GB)。
        3. Paged Optimizers:使用NVIDIA統(tǒng)一內(nèi)存來避免處理小批量長序列時(shí)的梯度檢查點(diǎn)內(nèi)存峰值。

        通過QLoRA方法,研究人員在測試中微調(diào)了數(shù)千個(gè)模型,結(jié)果顯示基于QLoRA方法微調(diào)的Guanaco模型在性能上超越了目前所有的開源模型,甚至比ChatGPT更強(qiáng)大,并接近GPT-4。Guanaco模型包括四個(gè)版本,從70億參數(shù)到650億參數(shù),所有版本都將開源。這項(xiàng)研究還包含了大量與大模型相關(guān)的數(shù)據(jù)和結(jié)論,建議閱讀原始論文以獲取更詳細(xì)的信息。論文涵蓋了不同模型的顯存占用、當(dāng)前大模型評(píng)測基準(zhǔn)的偏差等內(nèi)容。QLoRA方法的提出是為了解決如何有效微調(diào)大型語言模型以優(yōu)化其性能的問題。盡管大型模型具有強(qiáng)大的能力,但對(duì)于特定領(lǐng)域的數(shù)據(jù)集來說,微調(diào)仍然是必要的,因?yàn)槠髽I(yè)和個(gè)人可能具有特定領(lǐng)域的專有數(shù)據(jù)和知識(shí),而通用模型的零-shot能力難以擴(kuò)展到這些特定領(lǐng)域中。QLoRA方法為在48GB顯存的顯卡上微調(diào)大模型提供了解決方案,通過量化和其他優(yōu)化方法,它降低了顯存要求并保持了原始模型的性能。總之,QLoRA方法在大模型微調(diào)中具有潛力,可以提供更高效的顯存使用和優(yōu)越的性能,進(jìn)一步推動(dòng)語言模型領(lǐng)域的研究和應(yīng)用。QLoRA是一種新的方法,可以在單個(gè)GPU上微調(diào)大型語言模型。最近,華盛頓大學(xué)的研究人員使用QLoRA方法開發(fā)了Guanaco,這是一個(gè)基于Meta的LLaMA模型的機(jī)器人系列。其中最大的Guanaco變體擁有650億個(gè)參數(shù),并在與GPT-4進(jìn)行基準(zhǔn)測試時(shí)實(shí)現(xiàn)了超過99%與ChatGPT(GPT-3.5-turbo)相近的性能。微調(diào)大型語言模型是提高性能和訓(xùn)練效果的關(guān)鍵技術(shù)之一。然而,這個(gè)過程對(duì)于大型模型來說計(jì)算量非常龐大,例如LLaMA65B模型可能需要超過780GB的GPU顯存。盡管開源社區(qū)已經(jīng)使用各種量化方法將16位模型壓縮為4位模型,從而大大減少了推理過程所需的內(nèi)存,但在微調(diào)過程中尚未采用類似的方法。QLoRA方法填補(bǔ)了這一空白,使得在單個(gè)GPU上微調(diào)大型語言模型成為可能。它通過使用新的量化方法和內(nèi)存優(yōu)化技術(shù),有效地降低了顯存需求,并保持了原始模型的性能。Guanaco機(jī)器人的發(fā)布進(jìn)一步證明了QLoRA方法的可行性和實(shí)用性。Guanaco系列模型在性能上幾乎與ChatGPT相當(dāng),而顯存占用明顯較低。這意味著開發(fā)人員和研究人員可以在相對(duì)較小的計(jì)算資源下訓(xùn)練和微調(diào)性能強(qiáng)大的大型語言模型,從而加速自然語言處理和人工智能領(lǐng)域的創(chuàng)新。需要注意的是,盡管QLoRA方法和Guanaco模型在研究和學(xué)術(shù)領(lǐng)域取得了顯著進(jìn)展,但目前還不允許商業(yè)用途。然而,這一領(lǐng)域的不斷發(fā)展和優(yōu)化為未來的商業(yè)應(yīng)用打下了堅(jiān)實(shí)的基礎(chǔ)。QLoRA方法的提出為微調(diào)大型語言模型帶來了新的可能性,尤其是在資源受限的環(huán)境中。它為研究人員和開發(fā)者提供了更靈活、高效的工具,以加速自然語言處理和人工智能技術(shù)的發(fā)展,為未來的創(chuàng)新鋪平了道路。研究人員通過QLoRA方法展示了一種將LLaMA等模型量化為4位并進(jìn)行微調(diào)的方法,并引入了Guanaco模型作為示例。通過這種方法,他們成功地將650億參數(shù)模型的內(nèi)存需求從超過780GB降低到不到48GB的GPU內(nèi)存,并獲得了與微調(diào)16位模型相當(dāng)?shù)慕Y(jié)果。QLoRA方法的出現(xiàn)標(biāo)志著大型語言模型微調(diào)的可訪問性取得了重大突破,成為迄今為止在單個(gè)GPU上微調(diào)的最大公開可用模型。該研究團(tuán)隊(duì)進(jìn)行了多次實(shí)驗(yàn),訓(xùn)練了超過1000個(gè)模型,用于測試QLoRA和不同微調(diào)數(shù)據(jù)集的影響。他們的研究發(fā)現(xiàn),數(shù)據(jù)的質(zhì)量比任務(wù)的數(shù)量更為重要。在訓(xùn)練機(jī)器人時(shí),使用OpenAssistant數(shù)據(jù)集上的人類樣本訓(xùn)練的模型比使用FLANv2數(shù)據(jù)集上的大量樣本訓(xùn)練的模型表現(xiàn)更好。因此,Guanaco模型主要依賴于OpenAssistant數(shù)據(jù)集。通過QLoRA方法訓(xùn)練的Guanaco模型系列表現(xiàn)出色,其中第二好的模型以330億個(gè)參數(shù)在基準(zhǔn)測試中實(shí)現(xiàn)了97.8%的ChatGPT性能,并且僅用不到12小時(shí)的時(shí)間在單個(gè)普通GPU上完成訓(xùn)練。在專業(yè)級(jí)GPU上,具有650億個(gè)參數(shù)的最大模型僅用24小時(shí)就達(dá)到了99.3%的ChatGPT性能。最小的Guanaco模型只有70億個(gè)參數(shù),僅需要5GB的GPU內(nèi)存,在Vicuna基準(zhǔn)測試中表現(xiàn)出超過26GB羊駝模型20個(gè)百分點(diǎn)以上的性能。除了QLoRA和Guanaco模型,該研究團(tuán)隊(duì)還發(fā)布了OpenAssistant基準(zhǔn)測試,供模型之間相互競爭,并由人類或GPT-4對(duì)結(jié)果進(jìn)行評(píng)分。然而,該研究團(tuán)隊(duì)指出,數(shù)學(xué)能力和4位推理速度仍存在問題,他們希望能提高推理速度,預(yù)計(jì)速度將提高8至16倍。微調(diào)是將大型語言模型轉(zhuǎn)變?yōu)橄馛hatGPT這樣的機(jī)器人的重要工具,研究人員相信QLoRA方法將使微調(diào)更加易于實(shí)現(xiàn),特別是對(duì)于資源有限的研究人員而言。他們認(rèn)為,這對(duì)于自然語言處理領(lǐng)域尖端技術(shù)的可訪問性是一個(gè)巨大的勝利。除了微調(diào)當(dāng)今最大的語言模型,研究人員還展望了在移動(dòng)硬件上應(yīng)用私有模型的可能性。他們表示,QLoRA還將在手機(jī)上實(shí)現(xiàn)隱私保護(hù)微調(diào),預(yù)計(jì)每晚使用iPhone 12 Plus可微調(diào)300萬個(gè)單詞。這意味著,將來我們將能夠在手機(jī)上運(yùn)行針對(duì)每個(gè)應(yīng)用程序的特定大型語言模型。更多關(guān)于Guanaco-33B的信息和代碼可以在GitHub上查看。

        Guanaco原駝網(wǎng)址入口

        https://github.com/artidoro/qlora

        Guanaco原駝

        OpenI小編發(fā)現(xiàn)Guanaco原駝網(wǎng)站非常受用戶歡迎,請(qǐng)?jiān)L問Guanaco原駝網(wǎng)址入口試用。

        數(shù)據(jù)評(píng)估

        Guanaco原駝瀏覽人數(shù)已經(jīng)達(dá)到706,如你需要查詢?cè)撜镜南嚓P(guān)權(quán)重信息,可以點(diǎn)擊"5118數(shù)據(jù)""愛站數(shù)據(jù)""Chinaz數(shù)據(jù)"進(jìn)入;以目前的網(wǎng)站數(shù)據(jù)參考,建議大家請(qǐng)以愛站數(shù)據(jù)為準(zhǔn),更多網(wǎng)站價(jià)值評(píng)估因素如:Guanaco原駝的訪問速度、搜索引擎收錄以及索引量、用戶體驗(yàn)等;當(dāng)然要評(píng)估一個(gè)站的價(jià)值,最主要還是需要根據(jù)您自身的需求以及需要,一些確切的數(shù)據(jù)則需要找Guanaco原駝的站長進(jìn)行洽談提供。如該站的IP、PV、跳出率等!

        關(guān)于Guanaco原駝特別聲明

        本站OpenI提供的Guanaco原駝都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時(shí),對(duì)于該外部鏈接的指向,不由OpenI實(shí)際控制,在2023年 9月 7日 下午3:08收錄時(shí),該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。

        相關(guān)導(dǎo)航

        蟬鏡AI數(shù)字人

        暫無評(píng)論

        暫無評(píng)論...
        主站蜘蛛池模板: 亚洲熟女乱综合一区二区| 97视频免费在线| 亚洲国产成人久久一区久久| 亚洲欧洲精品成人久久曰| 一二三四视频在线观看中文版免费 | 成年女人18级毛片毛片免费| 亚洲精品美女视频| 天天影院成人免费观看| 亚洲人成影院午夜网站| 亚洲免费网站观看视频| 亚洲精品无码久久久久久| 四虎永久在线精品免费观看地址| 亚洲精品天堂无码中文字幕| 免费国产一级特黄久久| 一区二区三区在线观看免费 | 亚洲综合免费视频| 亚洲国产成人资源在线软件| 日韩精品无码区免费专区| 亚洲AV性色在线观看| 亚洲精品国产高清嫩草影院| 99re在线免费视频| 亚洲精品影院久久久久久| 亚洲中文无码永久免费| 黄色片网站在线免费观看| 亚洲综合av永久无码精品一区二区| 国产一级一毛免费黄片| 亚洲国产视频网站| 国产天堂亚洲国产碰碰| 亚洲乱码一区二区三区在线观看 | a级在线免费观看| 91亚洲国产成人久久精品 | 亚洲无线码一区二区三区| 2019中文字幕在线电影免费 | 国产亚洲精品无码成人| 四虎成年永久免费网站| 国产亚洲蜜芽精品久久| 亚洲AV无码成人精品区天堂 | 亚洲一区二区视频在线观看| 8x8×在线永久免费视频| 337P日本欧洲亚洲大胆艺术图| 亚洲乱码精品久久久久..|