標簽:長上
谷歌Gemini 1.5技術報告:輕松證明奧數題,Flash版比GPT-4 Turbo快5倍
機器之心報道 編輯:澤南谷歌表示,Gemini 1.5 相比 Claude 3.0和 GPT-4 Turbo 實現了代際提升。 今年 2 月,谷歌上線了多模態大模型 Gemini1.5,通過工程和...
Meta無限長文本大模型來了:參數僅7B,已開源
機器之心報道 編輯:澤南、陳萍谷歌之后,Meta 也來卷無限長上下文。Transformers 的二次復雜度和弱長度外推限制了它們擴展到長序列的能力,雖然存在線性注意...
Transformer并非萬能:Jamba在效率和吞吐量上大幅超越
點擊上方藍字關注我們“AI21 Labs推出Jamba,一種結合SSM與transformers的新AI模型,旨在提高處理長上下文的效率。Jamba在特定推理任務上超越傳統模型,盡管在...
Attention isn’t all you need!Mamba混合大模型開源:三倍Transformer吞吐量
機器之心報道 編輯:小舟Mamba 時代來了? 自 2017 年開創性研究論文《Attention is All You Need》問世以來,transformer 架構就一直主導著生成式人工智能領...
馬斯克大模型Grok1.5來了:推理能力大升級,支持128k上下文
機器之心報道 編輯:澤南馬斯克搞大模型,速度也奇快。 Grok 1 開源才剛有 10 天,Grok 1.5 就來了。本周五早上,馬斯克旗下的人工智能公司 xAI 正式推出了 G...
Mamba超強進化體一舉顛覆Transformer!單張A100跑140K上下文
新智元報道編輯:編輯部 【新智元導讀】52B的生產級Mamba大模型來了!這個超強變體Jamba剛剛打破世界紀錄,它能正面硬剛Transformer,256K超長上下文窗口,吞...
今日Arxiv最熱NLP大模型論文:Llama-2上下文擴大48倍的方法來了,港大發布,無需訓練
夕小瑤科技說 原創作者 | 芒果 引言:大語言模型的長上下文理解能力在當今的人工智能領域,大語言模型(Large Language Models,簡稱LLMs)的長上下文理解能...
谷歌10M上下文窗口正在RAG?被Sora奪走風頭的Gemini被低估了?
機器之心報道 機器之心編輯部RAG 還有存在的必要嗎?要說最近最郁悶的公司,谷歌肯定算得上一個:自家的 Gemini 1.5 剛剛發布,就被 OpenAI 的 Sora 搶盡了風...
符堯大佬一作發文,僅改訓練數據,就讓LLaMa-2上下文長度擴展20倍!
夕小瑤科技說 原創作者 | Tscom、Python引言:探索語言模型的長上下文能力近日,谷歌推出了Gemini Pro 1.5,將上下文窗口長度擴展到100萬個tokens,目前領先...
港中文聯合MIT提出超長上下文LongLoRA大模型微調算法
大數據文摘受權轉載自將門創投 現階段,上下文窗口長度基本上成為了評估LLM能力的硬性指標,上下文的長度越長,代表大模型能夠接受的用戶要求越復雜,近期Ope...
今日arXiv最熱NLP大模型論文:清華提出LongAlign,打破長上下文對齊瓶頸,數據、訓練策略、評估基準一網打盡
夕小瑤科技說 原創編輯 | 謝年年隨著LLMs的發展,其支持的上下文長度越來越長。僅一年時間,GPT-4就從一開始的4K、8K拓展到了128k。 128k什么概念?相當于一...
面向超長上下文,大語言模型如何優化架構,這篇綜述一網打盡了
機器之心報道 編輯:rome rome作者重點關注了基于 Transformer 的 LLM 模型體系結構在從預訓練到推理的所有階段中優化長上下文能力的進展。 ChatGPT 的誕生,...
PyTorch官方認可!斯坦福博士新作:長上下文LLM推理速度提8倍
豐色 發自 凹非寺量子位 | 公眾號 QbitAI這兩天,FlashAttention團隊推出了新作:一種給Transformer架構大模型推理加速的新方法,最高可提速8倍。該方法尤其...
「Meta版ChatGPT」背后的技術:想讓基礎LLM更好地處理長上下文,只需持續預訓練
機器之心報道編輯:Panda W在處理長上下文方面,LLaMA 一直力有不足,而通過持續預訓練和其它一些方法改進,Meta 的這項研究成功讓 LLM 具備了有效理解上下文...