谷歌開(kāi)源 AI 微調(diào)方法: Distilling Step-by-Step
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:谷歌開(kāi)源 AI 微調(diào)方法: Distilling Step-by-Step
關(guān)鍵字:模型,數(shù)據(jù),性能,參數(shù),規(guī)模
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):3249字
內(nèi)容摘要:作者 | Anthony Alford 譯者 | 王強(qiáng) 策劃 | 丁曉昀 華盛頓大學(xué)和谷歌研究中心的一個(gè)團(tuán)隊(duì)最近開(kāi)源了 Distilling Step-by-Step(逐步蒸餾),一種用于微調(diào)規(guī)模較小的語(yǔ)言模型的技術(shù)。與標(biāo)準(zhǔn)微調(diào)相比,逐步蒸餾需要的訓(xùn)練數(shù)據(jù)更少,并且生成的模型更小,但模型性能卻優(yōu)于參數(shù)規(guī)模是它 700 倍的小樣本提示大型語(yǔ)言模型 (LLM)。雖然 LLM 一般可以在提示較少的情況下在多種任務(wù)上有良好的表現(xiàn),但由于其內(nèi)存和算力要求過(guò)高,模型的托管是比較有挑戰(zhàn)的。規(guī)模較小的模型在微調(diào)后也可以有良好的表現(xiàn),但這需要工程師手動(dòng)創(chuàng)建針對(duì)具體任務(wù)優(yōu)化的數(shù)據(jù)集。逐步蒸餾的關(guān)鍵思想是使用 LLM 自動(dòng)生成一個(gè)小型微調(diào)數(shù)據(jù)集,其中的數(shù)據(jù)有一個(gè)輸入和一個(gè)輸出標(biāo)簽,以及選擇這個(gè)輸出標(biāo)簽的“理由”。微調(diào)過(guò)程會(huì)訓(xùn)練這個(gè)小模型來(lái)預(yù)測(cè)輸出標(biāo)簽并生成對(duì)應(yīng)的理由。在 NLP 基準(zhǔn)上評(píng)估時(shí),小型微調(diào)模型的性能…
原文鏈接:點(diǎn)此閱讀原文:谷歌開(kāi)源 AI 微調(diào)方法: Distilling Step-by-Step
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊、一線業(yè)界實(shí)踐案例、搜羅整理業(yè)界技術(shù)分享干貨、AI論文解讀。每周一節(jié)技術(shù)分享公開(kāi)課,助力你全面擁抱人工智能技術(shù)。