標簽:長度
深層探索相對論中的尺縮效應:是物體自身真的變短了,還是測量結果變短了?
來源:宇宙探索未解之謎 “運動著的物體,其運動方向上的長度會變短”這句話經常出現在相對論科普中,雖然表述不太嚴謹,但作為科普來說,還是可以的,不過這也...
比A100性價比更高!FlightLLM讓大模型推理不再為性能和成本同時發愁
機器之心專欄 機器之心編輯部大語言模型在端側的規模化應用對計算性能、能效比需求的“提拽式”牽引,在算法與芯片之間,撕開了一道充分的推理競爭場。 面對想...
四行代碼讓大模型上下文暴增3倍,羊駝Mistral都適用
克雷西 發自 凹非寺量子位 | 公眾號 QbitAI無需微調,只要四行代碼就能讓大模型窗口長度暴增,最高可增加3倍! 而且是“即插即用”,理論上可以適配任意大模型...
最新Claude 200K嚴重「虛標」?大神壕擲1016美元實測,90K后性能急劇下降
新智元報道編輯:潤 好困【新智元導讀】月初剛測了GPT-4 Turbo上下文真實實力的大神Greg Kamradt又盯上了Anthropic剛更新的Claude 2.1。他自己花了1016刀測完...
ChatGPT最強競對更新!上下文長度翻倍,API降價近30%
克雷西 發自 凹非寺量子位 | 公眾號 QbitAIOpenAI開發者大會后不久,它的最強競對Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文長度直接翻番到20...
GPT4 Turbo的128K上下文是雞肋?大佬斥巨資評測,斯坦福論文力證結論
夕小瑤科技說 原創作者 | 小戲、兔子醬這兩天,AI 圈子里最火的事,莫過于 OpenAI 在他們的首屆開發者日上重磅推出了 GPT-4 的加強 Plus 版 GPT-4 Turbo。隨...
百川智能發布Baichuan2-192K大模型,目前全球最長上下文窗口
文章轉自新智元,Founder Park 有所刪減10 月 30 日,百川智能發布 Baichuan2-192K 大模型。其上下文窗口長度高達 192K,是目前全球最長的上下文窗口。文本長...
百川智能推出全球最長上下文窗口大模型Baichuan2-192K,一次可輸入35萬字超越Claude2
10月30日,百川智能發布Baichuan2-192K大模型,上下文窗口長度高達192K,是目前全球最長的上下文窗口。Baichuan2-192K能夠一次處理約35萬個漢字,是目前支持...
剛剛,百川智能Baichuan2-192K發布,上下文窗口全球最長!一次讀完《三體》,拿下7個SOTA
新智元報道編輯:編輯部【新智元導讀】全球最長上下文窗口來了!今日,百川智能發布Baichuan2-192K大模型,上下文窗口長度高達192K(35萬個漢字),是Claude ...
4k窗口長度就能讀長文,陳丹琦高徒聯手Meta推出大模型記憶力增強新方法
克雷西 發自 凹非寺量子位 | 公眾號 QbitAI只有4k窗口長度的大模型,也能閱讀大段文本了!普林斯頓的華人博士生的一項最新成果,成功“突破”了大模型窗口長度...
LLaMA2上下文長度暴漲至100萬tokens,只需調整1個超參數|復旦邱錫鵬團隊出品
蕭簫 發自 凹非寺量子位 | 公眾號 QbitAI只需微調一下,大模型支持上下文大小就能從1.6萬tokens延長至100萬?!還是在只有70億參數的LLaMA 2上。要知道,即使...
PyTorch官方認可!斯坦福博士新作:長上下文LLM推理速度提8倍
豐色 發自 凹非寺量子位 | 公眾號 QbitAI這兩天,FlashAttention團隊推出了新作:一種給Transformer架構大模型推理加速的新方法,最高可提速8倍。該方法尤其...
別再「浪費」GPU了,FlashAttention重磅升級,實現長文本推理速度8倍提升
機器之心報道機器之心編輯部處理小說、法律文件等長文本是大模型的一個重要應用方向,但也面臨速度上的挑戰。FlashAttention 作者 Tri Dao 等人提出的「Flash...
一鍵讀完《三體》!港中文聯MITAI遺忘魔咒,2行代碼引領超長文本!
夕小瑤科技說 分享來源 | 新智元中途迷失、模型偷懶、上下文越長大模型越笨……體驗過LLM的人,多少都會對文本輸入長度帶來的限制有所感觸:想和大模型討論一些...
AI天才楊植麟交卷大模型產品,特點:長長長長長
衡宇 發自 凹非寺量子位 | 公眾號 QbitAI千億參數大模型,支持輸入的長文本首次達20萬字!在任何規模的大模型產品化隊伍中,這個長度堪稱目前的全球最長。用...