給機(jī)器人裝上「蟲腦」?非Transformer液態(tài)神經(jīng)網(wǎng)絡(luò)終于來了!MIT CSAIL負(fù)責(zé)人創(chuàng)業(yè)成果

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:給機(jī)器人裝上「蟲腦」?非Transformer液態(tài)神經(jīng)網(wǎng)絡(luò)終于來了!MIT CSAIL負(fù)責(zé)人創(chuàng)業(yè)成果
關(guān)鍵字:模型,報(bào)告,神經(jīng)網(wǎng)絡(luò),線蟲,高效
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報(bào)道
機(jī)器之心編輯部一個(gè)受線蟲啟發(fā)的全新架構(gòu),三大「杯型」均能實(shí)現(xiàn) SOTA 性能,資源高度受限環(huán)境也能部署。移動(dòng)機(jī)器人可能更需要一個(gè)蟲子的大腦。在大模型時(shí)代,谷歌 2017 年開創(chuàng)性論文《Attention Is All You Need》中提出的 Transformer 已經(jīng)成為主流架構(gòu)。
然而,剛剛一家由 MIT 計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室 (CSAIL) 前研究人員共同創(chuàng)立的初創(chuàng)公司 Liquid AI 卻走出了不一樣的路線。
Liquid AI 表示他們的目標(biāo)是「探索構(gòu)建超越生成式預(yù)訓(xùn)練 Transformer (GPT) 基礎(chǔ)模型的方法」。
為了實(shí)現(xiàn)這一目標(biāo),Liquid AI 推出了其首批多模態(tài) AI 模型:Liquid Foundation Models(LFM)。這是基于第一原理構(gòu)建的新一代生成式 AI 模型,其 1B、3B 和 40B LFM 在各個(gè)規(guī)模上均能實(shí)現(xiàn) SOTA 性能,同時(shí)保持更小的內(nèi)存占用和更高效的推理。
Liquid AI 后訓(xùn)練主管 Maxime Labonne 在 X 上表示,LFM 是他職業(yè)生涯中最自豪的版本 ,LFM 的核心優(yōu)勢(shì)在于它
原文鏈接:給機(jī)器人裝上「蟲腦」?非Transformer液態(tài)神經(jīng)網(wǎng)絡(luò)終于來了!MIT CSAIL負(fù)責(zé)人創(chuàng)業(yè)成果
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡(jiǎn)介:

粵公網(wǎng)安備 44011502001135號(hào)