老黃祭出新B200!30倍H100單機(jī)可訓(xùn)15個GPT-4模型,AI迎新摩爾時(shí)代

AIGC動態(tài)歡迎閱讀
原標(biāo)題:老黃祭出新B200!30倍H100單機(jī)可訓(xùn)15個GPT-4模型,AI迎新摩爾時(shí)代
關(guān)鍵字:模型,芯片,參數(shù),性能,人工智能
文章來源:新智元
內(nèi)容字?jǐn)?shù):8203字
內(nèi)容摘要:
新智元報(bào)道編輯:編輯部
【新智元導(dǎo)讀】就在剛剛,老黃又來打破摩爾定律了:英偉達(dá)新B200,一塊能頂5個H100,30倍推理加速,能訓(xùn)萬億參數(shù)大模型!同時(shí)推出的AI推理微服務(wù)NIM,號稱讓全世界用上AI。就在剛剛結(jié)束的GTC人工智能大會上,英偉達(dá)的新一代性能巨獸Backwell誕生了!
Blackwell B200 GPU,是如今世界上最強(qiáng)大的AI芯片,旨在「普惠萬億參數(shù)的AI」。
本來,H100已經(jīng)使英偉達(dá)成為價(jià)值數(shù)萬億美元的公司,趕超了谷歌和亞馬遜,但現(xiàn)在,憑著Blackwell B200和GB200,英偉達(dá)的領(lǐng)先優(yōu)勢還要繼續(xù)領(lǐng)先。
老黃表示——「H100很好,但我們需要更大的GPU」!
新的B200 GPU,從2080億個晶體管中能提供高達(dá)20 petaflops的FP4性能。(H100僅為4 petaflops)
而將兩個B200與單個Grace CPU相結(jié)合的GB200,則可以為LLM推理工作負(fù)載提供30倍的性能,同時(shí)大大提高效率。
比起H100,GB200的成本和能耗降低了25倍!
Blackwell芯片和Hopper H100芯片的尺寸比較
這種額外的處理能力,就能讓
原文鏈接:老黃祭出新B200!30倍H100單機(jī)可訓(xùn)15個GPT-4模型,AI迎新摩爾時(shí)代
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時(shí)代。

粵公網(wǎng)安備 44011502001135號