和無問芯穹夏立雪聊聊:中國大模型的 Scaling Law 難題

AIGC動態(tài)歡迎閱讀
原標題:和無問芯穹夏立雪聊聊:中國大模型的 Scaling Law 難題
關(guān)鍵字:模型,創(chuàng)業(yè)者,芯片,創(chuàng)始人,困局
文章來源:Founder Park
內(nèi)容字數(shù):1739字
內(nèi)容摘要:
Scaling Law 已成為大模型進化的「不二法門」。
大模型參數(shù)量越大、數(shù)據(jù)集規(guī)模越大、算力消耗越大,性能就越好。性能越好,越受歡迎,業(yè)務(wù)拓展與運營的成本就越高。
相比較海外的大模型大廠,國內(nèi)的大模型公司會面臨更嚴峻的算力問題,資金問題、顯卡限購的問題,以至于有不少人質(zhì)疑,中國大模型到底有沒有 Scaling Law?
成立不足一年的無問芯穹,試圖回答這個問題,解決中國的算力難題。
無問芯穹聯(lián)合創(chuàng)始人 & CEO 夏立雪認為,國內(nèi)整體算力水平距離國際先進還有明顯差距,光靠芯片工藝提升或是多元芯片的迭代已遠遠不夠,需要建立一個大模型生態(tài)系統(tǒng),讓不同模型能自動部署到不同硬件上,讓各種算力得到有效利用。
3 月 31 日,無問芯穹發(fā)布基于多芯片算力底座的無穹 Infini-AI 大模型開發(fā)與服務(wù)平臺,支持了 Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3 閉源模型、Llama2、Qwen、Qwen1.5 系列等共 20 多個模型,以及 AMD、壁仞、寒武紀、燧原、天數(shù)智芯、沐曦、摩爾線程、NVIDIA 等 10 余種計算卡,支持多模型與多芯片之間的軟硬件聯(lián)合優(yōu)化
原文鏈接:和無問芯穹夏立雪聊聊:中國大模型的 Scaling Law 難題
聯(lián)系作者
文章來源:Founder Park
作者微信:Founder-Park
作者簡介:來自極客公園,專注與科技創(chuàng)業(yè)者聊「真問題」。

粵公網(wǎng)安備 44011502001135號