標簽:集群

如何為混合AI打好算力地基?聯想集團已率先交卷

混合AI時代算力的“萬全之策”。 作者|程茜 編輯|漠影 如今,個人大模型和企業大模型以及在其基礎上發展出的個人智能體和企業智能體,將與公有大模型共存互補,...
閱讀原文

千卡集群算力競賽,國產大模型終于等來了“中國英偉達”|甲子光年

國產算力新突破。作者|趙健 在替代英偉達的道路上,國產算力一直面臨一個“雞生蛋、蛋生雞”的難題。 當國產芯片問世之后,要想真正用起來,需要種子客戶用實...
閱讀原文

國產GPU重大利好!“中國英偉達”千卡集群已就位

金磊 發自 凹非寺量子位 | 公眾號 QbitAI算力基礎設施建設,北京市有了最新的大動作—— 《北京市算力基礎設施建設實施方案(2024-2027年)》。 其中,《方案》...
閱讀原文

百模大戰引爆「千卡集群競賽」,“中國英偉達”交卷了

大模型引發AI算力荒,新一代千卡集群喂飽國產新苗子。 作者|三北 編輯|漠影 大模型正引發一波新的AI算力荒,從此前的芯片緊缺,上升為AI算力集群級的饑渴癥。...
閱讀原文

OpenAI陷巨大算力荒,國內大廠搶先破局!打破單芯片限制,算力效率提升33%

新智元報道編輯:編輯部 【新智元導讀】一切計算皆AI已成為行業共識。大模型參數規模從千億走向萬億,從單一走向MoE,對算力的需求愈加龐大。我們需要理清的...
閱讀原文

對話國產“算力黑馬”:27億元大單背后,英博數科周韡韡的AGI探索之路

▲圖片由AI生成 從ChatGPT到Sora,通用模型為王,智算產業現“隱形護城河”。 作者|國仁 李水青 編輯|漠影 當下中國科技圈,什么樣的創業公司最吃香?或許是身處...
閱讀原文

4萬億晶體管5nm制程,全球最快AI芯片碾壓H100!單機可訓24萬億參數LLM,Llama 70B一天搞定

新智元報道編輯:桃子 好困 【新智元導讀】AI世界的進化快的有點跟不上了。剛剛,全球最強最大AI芯片WSE-3發布,4萬億晶體管5nm工藝制程。更厲害的是,WSE-3...
閱讀原文

Meta公布Llama 3訓練集群細節!儲備60萬塊H100迎接AGI

新智元報道編輯:潤 【新智元導讀】LLM開源從Infra做起!Meta公布了自己訓練Llama 3的H100集群細節,看來Llama 3快來了。每年3月份,照例各家大廠又要開始秀...
閱讀原文

為Llama 3鋪路:Meta推出2個24K GPU集群|甲子光年

35萬張 H100 的算力平臺將為大模型領域帶來什么改變?編譯|艾倫 編輯|栗子 3月12日,Meta 推出2個 24KGPU集群,為訓練 Llama3 構建超強資源池。 在 Meta 工...
閱讀原文

Llama3訓練集群揭秘,共24,576 個 GPU

點擊上方藍字關注我們“Meta 公司透露了其專為 AI 訓練設計的先進硬件基礎設施細節。這些集群包括 24,576 個 GPU,采用了創新的網絡結構解決方案,為支持當前...
閱讀原文

Meta公開 Llama-3基礎訓練設施:使用了49,000個H100

來源 | 授權轉載自AIGC開放社區(公眾號ID:AIGCOPEN) 3 月 13 日,社交、科技巨頭 Meta 在官網公布了兩個全新的 24K H100 GPU 集群(49,152 個),專門用于...
閱讀原文

專為訓練Llama 3,Meta 4.9萬張H100集群細節公布

機器之心報道 機器之心編輯部只想知道 Llama 3 何時能來?生成式大模型給人工智能領域帶來了重大變革,人們在看到實現通用人工智能(AGI)希望的同時,訓練、...
閱讀原文

前谷歌科學家離職創業1年,自述訓練LLM卡在算力上!買卡就像中彩票,Karpathy轉贊

新智元報道編輯:桃子 【新智元導讀】一家大模型初創公司從創立到訓練出大模型,要克服怎樣的難題?前谷歌科學家離職后創業一年,發文自述算力是訓練大模型的...
閱讀原文

「還是谷歌好」,離職創業一年,我才發現訓練大模型有這么多坑

機器之心報道 編輯:蛋醬、小舟Karpathy:中肯的,一針見血的。 如何在不到一年的時間里創辦一家公司、籌集資金、購買芯片,并搭建出追趕 Gemini pro/GPT 3.5...
閱讀原文

字節萬卡集群技術細節公開:2天搞定GPT-3訓練,算力利用率超英偉達Megatron-LM

魚羊 發自 凹非寺量子位 | 公眾號 QbitAI隨著對Sora技術分析的展開,AI基礎設施的重要性愈發凸顯。 來自字節和北大的一篇新論文在此時吸引關注: 文章披露,...
閱讀原文
13456