Jamba 1.5發布,最長上下文,非Transformer架構首次成功領先
AIGC動態歡迎閱讀
原標題:Jamba 1.5發布,最長上下文,非Transformer架構首次成功領先
關鍵字:模型,長上,上下文,架構,下文
文章來源:Founder Park
內容字數:0字
內容摘要:
昨天,號稱當前最強、最高效的長上下文模型——Jamba 1.5 系列發布。
Jamba 是第一個基于 Mamba 架構的生產級模型。Mamba 是由卡內基梅隆大學和普林斯頓大學的研究人員提出的新架構,被視為 Transformer 架構的有力挑戰者。
基于評估,Jamba 1.5 擁有最長的有效上下文窗口,在同等大小的所有上下文長度中速度最快,質量得分超過 Llama 3.1 70B 和 405B。
點擊關注,每天更新深度 AI 行業洞察
01AI21 Labs 是誰?AI21 Labs 由人工智能先驅 Amnon Shashua 教授(Mobileye 創始人兼首席執行官)、Yoav Shoham 教授(斯坦福大學名譽教授、前谷歌首席科學家)和 Ori Goshen(CrowdX 創始人)于 2017 年創立,目標是打造成為人類思想伙伴的人工智能系統。
2023 年 8 月,AI21 Labs 宣布完成 1.55 億美元的 C 輪融資,投資者包括 Walden Catalyst、Pitango、SCB10X、b2venture、Samsung Next 和 Amnon Shashua
原文鏈接:Jamba 1.5發布,最長上下文,非Transformer架構首次成功領先
聯系作者
文章來源:Founder Park
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...