面壁 WAIC 新發(fā)布:新一代高效低能耗架構(gòu)面壁小鋼炮、一鍵開(kāi)發(fā)大模型 APP 的全棧工具集
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:面壁 WAIC 新發(fā)布:新一代高效低能耗架構(gòu)面壁小鋼炮、一鍵開(kāi)發(fā)大模型 APP 的全棧工具集
關(guān)鍵字:模型,高效,開(kāi)發(fā)者,密度,微軟
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者 | 蔡芳芳
7 月 5 日,面壁智能聯(lián)合創(chuàng)始人、首席科學(xué)家劉知遠(yuǎn)在 WAIC 2024 “模型即服務(wù)(Mass)加速大模型應(yīng)用落地”論壇進(jìn)行了《大模型時(shí)代的摩爾定律,邁入更高效的大模型時(shí)代》主題演講,并首次對(duì)外介紹:
開(kāi)源新一代高效、低能耗面壁小鋼炮 MiniCPM-S 模型
助力開(kāi)發(fā)者一鍵打造大模型 SuperAPP 的全棧工具集 MobileCPM
演講開(kāi)場(chǎng),劉知遠(yuǎn)表示:“摩爾定律揭示了集成電路可容納晶體管數(shù)目約每隔 18 個(gè)月便會(huì)增加一倍的規(guī)律,在過(guò)去幾十年中給半導(dǎo)體和互聯(lián)網(wǎng)行業(yè)的發(fā)展帶來(lái)了科學(xué)指導(dǎo)意義;身處大模型時(shí)代,我們亟需新的“摩爾定律”。我們根據(jù)過(guò)去幾年在大模型領(lǐng)域的深耕和實(shí)踐,對(duì)大模型的發(fā)展趨勢(shì)進(jìn)行觀察總結(jié),提出了 大模型時(shí)代的面壁定律:大模型的知識(shí)密度不斷提升,平均每 8 個(gè)月提升一倍。”
其中,知識(shí)密度 = 模型能力 / 推理算力消耗。
如下圖所示,相比 OpenAI 于 2020 年發(fā)布的 1750 億參數(shù)的 GPT-3,2024 年初,面壁發(fā)布具備 GPT-3 同等性能但參數(shù)僅為 24 億的 MiniCPM-2.4B ,把知識(shí)密度提高了大概 86 倍。
不
原文鏈接:面壁 WAIC 新發(fā)布:新一代高效低能耗架構(gòu)面壁小鋼炮、一鍵開(kāi)發(fā)大模型 APP 的全棧工具集
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。