Jamba 1.5發(fā)布,最長上下文,非Transformer架構(gòu)首次成功領(lǐng)先
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Jamba 1.5發(fā)布,最長上下文,非Transformer架構(gòu)首次成功領(lǐng)先
關(guān)鍵字:模型,長上,上下文,架構(gòu),下文
文章來源:Founder Park
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
昨天,號稱當(dāng)前最強、最高效的長上下文模型——Jamba 1.5 系列發(fā)布。
Jamba 是第一個基于 Mamba 架構(gòu)的生產(chǎn)級模型。Mamba 是由卡內(nèi)基梅隆大學(xué)和普林斯頓大學(xué)的研究人員提出的新架構(gòu),被視為 Transformer 架構(gòu)的有力挑戰(zhàn)者。
基于評估,Jamba 1.5 擁有最長的有效上下文窗口,在同等大小的所有上下文長度中速度最快,質(zhì)量得分超過 Llama 3.1 70B 和 405B。
點擊關(guān)注,每天更新深度 AI 行業(yè)洞察
01AI21 Labs 是誰?AI21 Labs 由人工智能先驅(qū) Amnon Shashua 教授(Mobileye 創(chuàng)始人兼首席執(zhí)行官)、Yoav Shoham 教授(斯坦福大學(xué)名譽教授、前谷歌首席科學(xué)家)和 Ori Goshen(CrowdX 創(chuàng)始人)于 2017 年創(chuàng)立,目標(biāo)是打造成為人類思想伙伴的人工智能系統(tǒng)。
2023 年 8 月,AI21 Labs 宣布完成 1.55 億美元的 C 輪融資,投資者包括 Walden Catalyst、Pitango、SCB10X、b2venture、Samsung Next 和 Amnon Shashua
原文鏈接:Jamba 1.5發(fā)布,最長上下文,非Transformer架構(gòu)首次成功領(lǐng)先
聯(lián)系作者
文章來源:Founder Park
作者微信:
作者簡介: