顯卡之爭!英偉達(dá)和AMD下場(chǎng)互掐!GPU霸主地位是否能保?
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:顯卡之爭!英偉達(dá)和AMD下場(chǎng)互掐!GPU霸主地位是否能保?
關(guān)鍵字:性能,報(bào)告,測(cè)試,顯卡,基準(zhǔn)
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):5772字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 王二狗大家好,我是二狗。
英偉達(dá)和AMD這兩家芯片巨頭掐起來啦!
事情的起因是,兩周前AMD董事會(huì)主席兼CEO蘇姿豐在一場(chǎng)活動(dòng)中發(fā)布了用于生成式AI和數(shù)據(jù)中心的新一代Intinct MI300X GPU芯片加速卡。
單單發(fā)布顯卡沒啥問題,但是AMD聲稱MI300X芯片在推斷 Meta 的 Llama 2700 億參數(shù)模型時(shí),能夠?qū)崿F(xiàn)比 H100 低 40% 的延遲。
這意味著AMD的MI300X芯片性能更優(yōu)唄!
英偉達(dá)下場(chǎng)指責(zé)AMD那英偉達(dá)作為GPU顯卡的行業(yè)老大哥,聽到之后哪能愿意啊。
所以,就在上周,英偉達(dá)特意發(fā)布一篇官方博客來證明 H100 具有頂級(jí)的推理性能。
英偉達(dá)博客表示:
一流的AI性能需要高效的并行計(jì)算架構(gòu)、高效的工具堆棧和深度優(yōu)化的算法。英偉達(dá)發(fā)布了開源 NVIDIA TensorRT-LLM,其中包括針對(duì) NVIDIA H100 Tensor Core GPU 核心的 NVIDIA Hopper 架構(gòu)的最新內(nèi)核優(yōu)化。這些優(yōu)化使 Llama 2 70B 等模型能夠在 H100 GPU 上使用加速 FP8 運(yùn)算執(zhí)行,同時(shí)保持推理精度。
而AM
原文鏈接:顯卡之爭!英偉達(dá)和AMD下場(chǎng)互掐!GPU霸主地位是否能保?
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應(yīng)用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級(jí)AI實(shí)驗(yàn)室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術(shù)深度。