告別微軟,姜大昕帶領(lǐng)這支精英團(tuán)隊(duì)攀登Scaling Law,萬億參數(shù)模型已有預(yù)覽版
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:告別微軟,姜大昕帶領(lǐng)這支精英團(tuán)隊(duì)攀登Scaling Law,萬億參數(shù)模型已有預(yù)覽版
關(guān)鍵字:模型,解讀,報(bào)告,數(shù)據(jù),參數(shù)
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):11222字
內(nèi)容摘要:
機(jī)器之心原創(chuàng)
作者:張倩攀登 Scaling Law,打造萬億參數(shù)大模型,前微軟 NLP 大牛姜大昕披露創(chuàng)業(yè)路線圖。前段時(shí)間,OpenAI 科學(xué)家 Jason Wei 的一份作息時(shí)間表引發(fā)了廣泛關(guān)注。表中有很多讓人看了會(huì)心一笑的梗,比如「9 點(diǎn) 45:背誦 OpenAI 章程,向最優(yōu)化的神禱告,學(xué)習(xí)《苦澀的教訓(xùn)》」「10 點(diǎn)用 Google Meet 開會(huì),討論怎么在更多數(shù)據(jù)上訓(xùn)練更大的模型」「11 點(diǎn)寫代碼,用來在更多數(shù)據(jù)上訓(xùn)練更大的模型」「1 點(diǎn):實(shí)操,在更多數(shù)據(jù)上訓(xùn)練更大的模型」「4 點(diǎn):對用更多數(shù)據(jù)訓(xùn)練的更大的模型進(jìn)行提示工程」……在短短的十幾行字中,「在更多數(shù)據(jù)上訓(xùn)練更大的模型」出現(xiàn)了四次,而且《苦澀的教訓(xùn)》也毫不意外地早早出場。對于一家信仰 Scaling Law 并因此而取得巨大成功的公司來說,這些表述可能不僅僅是在玩梗。在公司官網(wǎng)公布的核心價(jià)值觀里,OpenAI 寫到,「我們相信 scale(規(guī)模)—— 在我們的模型、我們的系統(tǒng)、我們自己、我們的流程和我們的抱負(fù)中 —— 是有魔力的。如果對此產(chǎn)生了懷疑,那就擴(kuò)大 scale。」
多年來,依靠對于自身技術(shù)路線的充分自信和堅(jiān)
原文鏈接:告別微軟,姜大昕帶領(lǐng)這支精英團(tuán)隊(duì)攀登Scaling Law,萬億參數(shù)模型已有預(yù)覽版
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)