大模型微調(diào)到底有沒(méi)有技術(shù)含量?

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:大模型微調(diào)到底有沒(méi)有技術(shù)含量?
關(guān)鍵字:知乎,模型,數(shù)據(jù),做法,能力
文章來(lái)源:智猩猩AGI
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
大模型時(shí)代最火AI芯片峰會(huì)來(lái)啦!!9月6-7日,由芯東西聯(lián)合主辦的2024全球AI芯片峰會(huì)將在北京舉行。峰會(huì)設(shè)有數(shù)據(jù)中心AI芯片、智算集群等7大板塊。目前,AMD人工智能事業(yè)部高級(jí)總監(jiān)王宏強(qiáng),云天勵(lì)飛副總裁、芯片業(yè)務(wù)線總經(jīng)理李?lèi)?ài)軍,清華大學(xué)交叉信息研究院助理教授、北極雄芯創(chuàng)始人馬愷聲等25+嘉賓/企業(yè)已確認(rèn)出席并演講。掃名~今天給大家?guī)?lái)知乎好友@ybq的一篇回答-大模型微調(diào)到底有沒(méi)有技術(shù)含量,或者說(shuō)技術(shù)含量到底有多大?
知乎:https://www.zhihu.com/question/599396505/answer/3583853852
老生常談的一句話吧:有沒(méi)有技術(shù)含量取決于這個(gè)工作你怎么做,尤其是 llm 方向,上手門(mén)檻相比傳統(tǒng) NLP 變得更低了。
我舉一些例子吧,針對(duì)大模型微調(diào)的幾個(gè)重要環(huán)節(jié),我列舉的每一種做法大概率都能完成最終目標(biāo),甚至說(shuō)訓(xùn)出來(lái)的模型效果都沒(méi)什么差別。但對(duì)個(gè)人能力成長(zhǎng)的幫助就大不相同了。
01數(shù)據(jù)工作做法 1 : 繼承實(shí)驗(yàn)室或者同事的訓(xùn)練數(shù)據(jù),拿到之后也不 check 一下數(shù)據(jù)質(zhì)量,直接放進(jìn)去訓(xùn)。
做法 2 : 下載一個(gè)開(kāi)源數(shù)據(jù),構(gòu)建“system
原文鏈接:大模型微調(diào)到底有沒(méi)有技術(shù)含量?
聯(lián)系作者
文章來(lái)源:智猩猩AGI
作者微信:
作者簡(jiǎn)介:

粵公網(wǎng)安備 44011502001135號(hào)