標(biāo)簽:長(zhǎng)上

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來(lái)日常寫作,雖然本身提供了AI功能,但可惜需要會(huì)員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請(qǐng)地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說(shuō),半個(gè)月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說(shuō)的是,機(jī)會(huì)還是有的,但問(wèn)題不在于有沒有,而在于你是否能夠認(rèn)準(zhǔn)機(jī)會(huì),然后抓住它。 接觸過(guò)很多咨詢項(xiàng)目的人,發(fā)現(xiàn)...

米開朗基羅怎么說(shuō)?谷歌DeepMind推出長(zhǎng)上下文評(píng)估新框架

新智元報(bào)道編輯:alan 【新智元導(dǎo)讀】近日,來(lái)自谷歌DeepMind的研究人員提出了Michelangelo,「用米開朗基羅的觀點(diǎn)」來(lái)測(cè)量任意上下文長(zhǎng)度的基礎(chǔ)模型性能。米...
閱讀原文

Jamba 1.5發(fā)布,最長(zhǎng)上下文,非Transformer架構(gòu)首次成功領(lǐng)先

昨天,號(hào)稱當(dāng)前最強(qiáng)、最高效的長(zhǎng)上下文模型——Jamba 1.5 系列發(fā)布。 Jamba 是第一個(gè)基于 Mamba 架構(gòu)的生產(chǎn)級(jí)模型。Mamba 是由卡內(nèi)基梅隆大學(xué)和普林斯頓大學(xué)的...
閱讀原文

支持1024幀、準(zhǔn)確率近100%,英偉達(dá)「LongVILA」開始發(fā)力長(zhǎng)視頻

機(jī)器之心報(bào)道 編輯:杜偉、陳陳現(xiàn)在,長(zhǎng)上下文視覺語(yǔ)言模型(VLM)有了新的全棧解決方案 ——LongVILA,它集系統(tǒng)、模型訓(xùn)練與數(shù)據(jù)集開發(fā)于一體。現(xiàn)階段,將模型...
閱讀原文

無(wú)一大模型及格! 北大/通研院提出超難基準(zhǔn),專門評(píng)估長(zhǎng)文本理解生成

LooGLE團(tuán)隊(duì) 投稿自 凹非寺量子位 | 公眾號(hào) QbitAI在長(zhǎng)文本理解能力這塊,竟然沒有一個(gè)大模型及格! 北大聯(lián)合北京通用人工智能研究院提出了一個(gè)新基準(zhǔn)數(shù)據(jù)集:...
閱讀原文

NVIDIA把Llama-3的上下文長(zhǎng)度擴(kuò)展16倍,長(zhǎng)上下文理解能力超越GPT-4

夕小瑤科技說(shuō) 原創(chuàng)作者 | Richard在 Llama-3.1 模型發(fā)布之前,開源模型與閉源模型的性能之間一直存在較大的差距,尤其是在長(zhǎng)上下文理解能力上。 大模型的上下...
閱讀原文

7B最強(qiáng)長(zhǎng)視頻模型! LongVA視頻理解超千幀,霸榜多個(gè)榜單

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

Gemini 1.5 Pro裝進(jìn)機(jī)器人,參觀一遍公司就能禮賓、帶路

機(jī)器之心報(bào)道 編輯:張倩長(zhǎng)上下文大模型幫助機(jī)器人理解世界。最近,谷歌 DeepMind 突然開始炫起了機(jī)器人。這個(gè)機(jī)器人可以輕松聽從人類指令、進(jìn)行視覺導(dǎo)覽,用...
閱讀原文

超越 Transformer 與 Mamba,Meta 聯(lián)合斯坦福等高校推出最強(qiáng)架構(gòu) TTT

作者 | 趙明華 近日,斯坦福、UCSD、UC 伯克利和 Meta 的研究人員提出了一種全新架構(gòu),用機(jī)器學(xué)習(xí)模型取代 RNN 的隱藏狀態(tài)。 圖 1 所有序列建模層都可以表示...
閱讀原文

單卡A100實(shí)現(xiàn)百萬(wàn)token推理,速度快10倍,這是微軟官方的大模型推理加速

機(jī)器之心報(bào)道 編輯:張倩、陳萍微軟的這項(xiàng)研究讓開發(fā)者可以在單卡機(jī)器上以 10 倍的速度處理超過(guò) 1M 的輸入文本。大型語(yǔ)言模型 (LLM) 已進(jìn)入長(zhǎng)上下文處理時(shí)代...
閱讀原文

強(qiáng)強(qiáng)聯(lián)合!當(dāng)RAG遇到長(zhǎng)上下文,滑鐵盧大學(xué)發(fā)布LongRAG,效果領(lǐng)先GPT-4 Turbo 50%

夕小瑤科技說(shuō) 原創(chuàng)作者 | Axe_越過(guò)猶不及——《論語(yǔ)·先進(jìn)》 大學(xué)考試時(shí),有些老師允許帶備cheet sheet(忘紙條),上面記著關(guān)鍵公式和定義,幫助我們快速作答提高...
閱讀原文

谷歌重磅:告別RAG,長(zhǎng)上下文的大語(yǔ)言模型無(wú)需檢索增強(qiáng)

夕小瑤科技說(shuō) 原創(chuàng)作者 | Richard當(dāng)今人工智能領(lǐng)域正在經(jīng)歷一場(chǎng)靜默的革命。隨著大語(yǔ)言模型(LLM)的快速發(fā)展,它們不僅能夠處理更長(zhǎng)的上下文,還展現(xiàn)出驚人的...
閱讀原文

一次可輸入多張圖像,還能多輪對(duì)話!最新開源數(shù)據(jù)集,讓AI更接近現(xiàn)實(shí)

劉子煜 投稿量子位 | 公眾號(hào) QbitAI大模型對(duì)話能更接近現(xiàn)實(shí)了! 不僅可以最多輸入20張圖像,還能支持多達(dá)27輪對(duì)話。可處理文本+圖像tokens最多18k。 這就是最...
閱讀原文

英偉達(dá)新研究:上下文長(zhǎng)度虛標(biāo)嚴(yán)重,32K性能合格的都不多

西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI無(wú)情戳穿“長(zhǎng)上下文”大模型的虛標(biāo)現(xiàn)象—— 英偉達(dá)新研究發(fā)現(xiàn),包括GPT-4在內(nèi)的10個(gè)大模型,生成達(dá)到128k甚至1M上下文長(zhǎng)...
閱讀原文

速度秒殺GPT-4o!Mistral開源首個(gè)22B代碼模型破記錄,支持80+編程語(yǔ)言

新智元報(bào)道編輯:?jiǎn)虠?好困 【新智元導(dǎo)讀】就在剛剛,法國(guó)AI初創(chuàng)公司Mistral發(fā)布了自家首款代碼生成模型Codestral。不僅支持32K長(zhǎng)上下文窗口以及80多種編程語(yǔ)...
閱讀原文

拯救被「掰彎」的GPT-4!西交微軟北大聯(lián)合提出IN2訓(xùn)練治療LLM「中間迷失」

新智元報(bào)道編輯:alan 【新智元導(dǎo)讀】近日,西交微軟北大聯(lián)合提出信息密集型訓(xùn)練大法,使用純數(shù)據(jù)驅(qū)動(dòng)的方式,矯正LLM訓(xùn)練過(guò)程產(chǎn)生的偏見,在一定程度上治療...
閱讀原文
123