英偉達(dá)吞噬世界!新架構(gòu)超級(jí)GPU問世,AI算力一步提升30倍

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:英偉達(dá)吞噬世界!新架構(gòu)超級(jí)GPU問世,AI算力一步提升30倍
關(guān)鍵字:元宇宙,芯片,模型,機(jī)器人,架構(gòu)
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):8412字
內(nèi)容摘要:
機(jī)器之心報(bào)道
機(jī)器之心編輯部「這才是我理想中的 GPU。」—— 黃仁勛。「這不是演唱會(huì)。你們是來參加開發(fā)者大會(huì)的!」老黃出場(chǎng)時(shí),現(xiàn)場(chǎng)爆發(fā)出了巨大的歡呼聲。
今天凌晨四點(diǎn),加州圣何塞,全球市值第三大公司英偉達(dá)一年一度的 GTC 大會(huì)開始了。今年的 GTC 大會(huì)伴隨著生成式 AI 技術(shù)爆發(fā),以及英偉達(dá)市值的暴漲。相對(duì)的是,算力市場(chǎng)也在升溫,硬件和軟件方面的競(jìng)爭(zhēng)都在加劇。
而英偉達(dá)帶來的產(chǎn)品,再次將 AI 芯片的標(biāo)桿推向了難以想象的高度。「通用計(jì)算已經(jīng)失去動(dòng)力,現(xiàn)在我們需要更大的模型,我們需要更大的 GPU,更需要將 GPU 堆疊在一起。」黃仁勛說道。「這不是為了降低成本,而是為了擴(kuò)大規(guī)模。」黃仁勛提到,大模型參數(shù)量正在呈指數(shù)級(jí)增長(zhǎng),此前 OpenAI 最大的模型已經(jīng)有 1.8T 參數(shù),需要吞吐數(shù)十億 token。即使是一塊 PetaFLOP 級(jí)的 GPU,訓(xùn)練這樣大的模型也需要 1000 年才能完成。這句話還透露了一個(gè)關(guān)鍵信息:GPT-4 的實(shí)際參數(shù)量應(yīng)該就是 1.8 萬億。為了幫助世界構(gòu)建更大的 AI,英偉達(dá)必須首先拿出新的 GPU,這就是 Backwell。此處老黃已有點(diǎn)詞窮了:「這是
原文鏈接:英偉達(dá)吞噬世界!新架構(gòu)超級(jí)GPU問世,AI算力一步提升30倍
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)

粵公網(wǎng)安備 44011502001135號(hào)