標(biāo)簽:長度
深層探索相對論中的尺縮效應(yīng):是物體自身真的變短了,還是測量結(jié)果變短了?
來源:宇宙探索未解之謎 “運(yùn)動(dòng)著的物體,其運(yùn)動(dòng)方向上的長度會(huì)變短”這句話經(jīng)常出現(xiàn)在相對論科普中,雖然表述不太嚴(yán)謹(jǐn),但作為科普來說,還是可以的,不過這也...
比A100性價(jià)比更高!FlightLLM讓大模型推理不再為性能和成本同時(shí)發(fā)愁
機(jī)器之心專欄 機(jī)器之心編輯部大語言模型在端側(cè)的規(guī)模化應(yīng)用對計(jì)算性能、能效比需求的“提拽式”牽引,在算法與芯片之間,撕開了一道充分的推理競爭場。 面對想...
四行代碼讓大模型上下文暴增3倍,羊駝Mistral都適用
克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI無需微調(diào),只要四行代碼就能讓大模型窗口長度暴增,最高可增加3倍! 而且是“即插即用”,理論上可以適配任意大模型...
最新Claude 200K嚴(yán)重「虛標(biāo)」?大神壕擲1016美元實(shí)測,90K后性能急劇下降
新智元報(bào)道編輯:潤 好困【新智元導(dǎo)讀】月初剛測了GPT-4 Turbo上下文真實(shí)實(shí)力的大神Greg Kamradt又盯上了Anthropic剛更新的Claude 2.1。他自己花了1016刀測完...
ChatGPT最強(qiáng)競對更新!上下文長度翻倍,API降價(jià)近30%
克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAIOpenAI開發(fā)者大會(huì)后不久,它的最強(qiáng)競對Claude也宣布推出了重磅更新。更新后的Claude 2.1,上下文長度直接翻番到20...
GPT4 Turbo的128K上下文是雞肋?大佬斥巨資評測,斯坦福論文力證結(jié)論
夕小瑤科技說 原創(chuàng)作者 | 小戲、兔子醬這兩天,AI 圈子里最火的事,莫過于 OpenAI 在他們的首屆開發(fā)者日上重磅推出了 GPT-4 的加強(qiáng) Plus 版 GPT-4 Turbo。隨...
百川智能發(fā)布Baichuan2-192K大模型,目前全球最長上下文窗口
文章轉(zhuǎn)自新智元,F(xiàn)ounder Park 有所刪減10 月 30 日,百川智能發(fā)布 Baichuan2-192K 大模型。其上下文窗口長度高達(dá) 192K,是目前全球最長的上下文窗口。文本長...
百川智能推出全球最長上下文窗口大模型Baichuan2-192K,一次可輸入35萬字超越Claude2
10月30日,百川智能發(fā)布Baichuan2-192K大模型,上下文窗口長度高達(dá)192K,是目前全球最長的上下文窗口。Baichuan2-192K能夠一次處理約35萬個(gè)漢字,是目前支持...
剛剛,百川智能Baichuan2-192K發(fā)布,上下文窗口全球最長!一次讀完《三體》,拿下7個(gè)SOTA
新智元報(bào)道編輯:編輯部【新智元導(dǎo)讀】全球最長上下文窗口來了!今日,百川智能發(fā)布Baichuan2-192K大模型,上下文窗口長度高達(dá)192K(35萬個(gè)漢字),是Claude ...
4k窗口長度就能讀長文,陳丹琦高徒聯(lián)手Meta推出大模型記憶力增強(qiáng)新方法
克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI只有4k窗口長度的大模型,也能閱讀大段文本了!普林斯頓的華人博士生的一項(xiàng)最新成果,成功“突破”了大模型窗口長度...
LLaMA2上下文長度暴漲至100萬tokens,只需調(diào)整1個(gè)超參數(shù)|復(fù)旦邱錫鵬團(tuán)隊(duì)出品
蕭簫 發(fā)自 凹非寺量子位 | 公眾號 QbitAI只需微調(diào)一下,大模型支持上下文大小就能從1.6萬tokens延長至100萬?!還是在只有70億參數(shù)的LLaMA 2上。要知道,即使...
PyTorch官方認(rèn)可!斯坦福博士新作:長上下文LLM推理速度提8倍
豐色 發(fā)自 凹非寺量子位 | 公眾號 QbitAI這兩天,F(xiàn)lashAttention團(tuán)隊(duì)推出了新作:一種給Transformer架構(gòu)大模型推理加速的新方法,最高可提速8倍。該方法尤其...
別再「浪費(fèi)」GPU了,F(xiàn)lashAttention重磅升級,實(shí)現(xiàn)長文本推理速度8倍提升
機(jī)器之心報(bào)道機(jī)器之心編輯部處理小說、法律文件等長文本是大模型的一個(gè)重要應(yīng)用方向,但也面臨速度上的挑戰(zhàn)。FlashAttention 作者 Tri Dao 等人提出的「Flash...
一鍵讀完《三體》!港中文聯(lián)MITAI遺忘魔咒,2行代碼引領(lǐng)超長文本!
夕小瑤科技說 分享來源 | 新智元中途迷失、模型偷懶、上下文越長大模型越笨……體驗(yàn)過LLM的人,多少都會(huì)對文本輸入長度帶來的限制有所感觸:想和大模型討論一些...
AI天才楊植麟交卷大模型產(chǎn)品,特點(diǎn):長長長長長
衡宇 發(fā)自 凹非寺量子位 | 公眾號 QbitAI千億參數(shù)大模型,支持輸入的長文本首次達(dá)20萬字!在任何規(guī)模的大模型產(chǎn)品化隊(duì)伍中,這個(gè)長度堪稱目前的全球最長。用...