標簽:上下文
谷歌Gemini時代來了!加固搜索護城河、賦能全家桶,Gemini 1.5 Pro升級至200萬token
作者:李寶珠 & 十九 編輯:三羊 谷歌的對手可能并非 OpenAI,而是 OpenAI 背后的微軟。3 月中旬,谷歌宣布 Google I/O 定檔北京時間 5 月 15 日凌晨 1 ...
牛皮吹破?大模型長輸入能力不能拿來做上下文學習
夕小瑤科技說 原創作者 | 謝年年LLMs已經進入了長序列時代。眾多的LLMs已經發布支持從32K到2M tokens的長序列窗口。 不過,面對如此龐大的輸入,我們不禁要問...
30%參數達到92%的表現,大模型稀疏化方法顯神通
夕小瑤科技說 原創作者 | Axe_越當我還是一位懵懂少年的時候,總認為“任務難度”,“參數規模”和“準確率”是一個不可兼顧的三角,比如當我想要挑戰更難的任務,...
58行代碼把Llama 3擴展到100萬上下文,任何微調版都適用
夢晨 發自 凹非寺量子位 | 公眾號 QbitAI堂堂開源之王Llama 3,原版上下文窗口居然只有……8k,讓到嘴邊的一句“真香”又咽回去了。? 在32k起步,100k尋常的今天...
LLM上下文窗口突破200萬!無需架構變化+復雜微調,輕松擴展8倍
新智元報道編輯:LRS 【新智元導讀】LongRoPE方法首次將LLM的窗口擴展到了2048k個token,只是簡單微調的情況下,就能實現與短上下文窗口相近的性能!大型語言...
北大發現了一種特殊類型的注意力頭!
夕小瑤科技說 原創作者 | 任同學檢索頭的發現或許將有力地幫助大模型領域在提高長上下文推理能力、減少幻覺和壓縮KV緩存方面的研究。 從 Claude100K 到 Gemin...
我處理了 5 億 GPT tokens 后:langchain、RAG 等都沒什么用
作者 | KEN KANTZER 譯者 | 平川 策劃 | 褚杏娟 本文最初發布于 KEN KANTZER 的個人博客。 在過去的六個月里,我的創業公司 Truss(gettruss.io)發布了多項...
5億個token之后,我們得出關于GPT的七條寶貴經驗
機器之心報道 機器之心編輯部ChatGPT 正確的使用姿勢。 自 ChatGPT 問世以來,OpenAI 一直被認為是全球生成式大模型的領導者。2023 年 3 月,OpenAI 官方宣布...
LongRoPE:超越極限,將大模型上下文窗口擴展超過200萬tokens
大數據文摘受權轉載自微軟亞洲研究院 編者按:大模型的飛速發展給人們的生活帶來了前所未有的便利。我們是否能夠設想利用大模型的潛力,快速掃描整部百科全書...
Meta無限長文本大模型來了:參數僅7B,已開源
機器之心報道 編輯:澤南、陳萍谷歌之后,Meta 也來卷無限長上下文。Transformers 的二次復雜度和弱長度外推限制了它們擴展到長序列的能力,雖然存在線性注意...
新架構掀翻Transformer!無限上下文處理,2萬億token碾壓Llama 2
新智元報道編輯:桃子 好困 【新智元導讀】Transformer王座即將被取而代之!Meta、USC、CMU和UCSD聯合提出了革命性新架構Megalodon,能夠處理無限上下文,在2...
iPhone上最強官方模型出現!性能超越GPT-4,蘋果Siri有救啦?
4月18-19日,由智猩猩與智東西共同主辦的2024中國生成式AI大會將在北京JW萬豪酒店舉行。大會完整議程出爐,55位嘉賓出席!免費票申請通道即將關閉,大會通票...
直接擴展到無限長,谷歌Infini-Transformer終結上下文長度之爭
機器之心報道 編輯:小舟、陳萍不知 Gemini 1.5 Pro 是否用到了這項技術。 谷歌又放大招了,發布下一代 Transformer 模型 Infini-Transformer。 Infini-Trans...
剛剛,Mistral AI最新磁力鏈放出!8x22B MoE模型,281GB解禁
新智元報道編輯:編輯部 【新智元導讀】初創團隊Mistral AI再次放出一條磁力鏈,281GB文件解禁了最新的8x22B MoE模型。一條磁力鏈,Mistral AI又來悶聲不響搞...
全面突圍,谷歌昨晚更新了一大模型產品
機器之心報道 機器之心編輯部這次,谷歌要憑「量」打敗其他競爭對手。 當地時間本周二,谷歌在 Google’s Cloud Next 2024 上發布了一系列 AI 相關的模型更新...
粵公網安備 44011502001135號