標(biāo)簽:步驟
等不來OpenAI的Q*,華為諾亞探索LLM推理的秘密武器MindStar先來了
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進(jìn)了學(xué)術(shù)...
AI首次實時生成視頻!尤洋團(tuán)隊新作,網(wǎng)友:這是新紀(jì)元
一水 發(fā)自 凹非寺量子位 | 公眾號 QbitAI尤洋團(tuán)隊新作,首個基于DiT的實時視頻生成方法來了! 先來直觀感受一下效果(右側(cè)為新方法): 這是團(tuán)隊在Open-Sora...
史上首個實時AI視頻生成技術(shù):DiT通用,速度提升10.6倍
機(jī)器之心報道 機(jī)器之心編輯部DiT 都能用,生成視頻無質(zhì)量損失,也不需要訓(xùn)練。實時 AI 視頻生成來了! 本周三,新加坡國立大學(xué)尤洋團(tuán)隊提出了業(yè)內(nèi)第一種可以...
AI Agent 落地現(xiàn)狀:成功率太低,即使用 GPT-4 也不到 15%
文章轉(zhuǎn)載自「機(jī)器之心」,F(xiàn)ounder Park 略有增刪。 隨著大語言模型的不斷進(jìn)化與自我革新,性能、準(zhǔn)確度、穩(wěn)定性都有了大幅的提升,這已經(jīng)被各個基準(zhǔn)問題集驗...
Transformer本可以深謀遠(yuǎn)慮,但就是不做
機(jī)器之心報道 機(jī)器之心編輯部語言模型是否會規(guī)劃未來 token?這篇論文給你答案。 「別讓 Yann LeCun 看見了。」Yann LeCun 表示太遲了,他已經(jīng)看到了。今天要...
清華叉院教授扔出量子密碼學(xué)重磅!論文引業(yè)界轟動,但算法被發(fā)現(xiàn)bug
新智元報道編輯:好困 Aeneas 【新智元導(dǎo)讀】前段時間,由清華叉院助理教授陳一鐳提出的全新「破解格密碼的量子算法」,一經(jīng)發(fā)表便引發(fā)了業(yè)內(nèi)轟動。然而就在...
若通過驗證可顛覆美國后量子密碼設(shè)計,清華陳一鐳預(yù)印論文格密碼
機(jī)器之心報道 機(jī)器之心編輯部30 年來最重要的量子算法突破?在計算機(jī)領(lǐng)域,解決格上的近似最短向量問題(Approximate Shortest Vector Problems in Lattices...
Scaling Laws又失靈了?谷歌新研究:擴(kuò)散模型不是越大越好
大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自夕小瑤科技說作者:Zicy 近年來,模型規(guī)模呈現(xiàn)出愈來愈大的趨勢,越來越多的人相信“力大磚飛”。 OpenAI 雖然沒有公布Sora的訓(xùn)練細(xì)節(jié),但...
Scaling Laws 又失靈了?谷歌新研究:擴(kuò)散模型不是越大越好
夕小瑤科技說 原創(chuàng)作者 | Zicy近年來,模型規(guī)模呈現(xiàn)出愈來愈大的趨勢,越來越多的人相信“力大磚飛”。 OpenAI 雖然沒有公布Sora的訓(xùn)練細(xì)節(jié),但在Sora的技術(shù)報...
顏水成/程明明新作!Sora核心組件DiT訓(xùn)練提速10倍,Masked Diffusion Transformer V2開源
新智元報道編輯:LRS 好困 【新智元導(dǎo)讀】Masked Diffusion Transformer V2在ImageNet benchmark 上實現(xiàn)了1.58的FID score的新SoTA,并通過mask modeling表征...
香港大學(xué)發(fā)布思維擴(kuò)散DoT,讓思維在時間上擴(kuò)散,提效保質(zhì)!
夕小瑤科技說 原創(chuàng)編輯 | Tscom 引言:探索結(jié)合擴(kuò)散模型與思維鏈來提升大模型推理能力在人工智能領(lǐng)域,大語言模型(LLMs)已經(jīng)引起了廣泛的關(guān)注,它們在自然...
加速知識檢索:伯克利&DeepMind聯(lián)合研究,RaLMSpec讓語言模型服務(wù)飛速提升2-7倍!
夕小瑤科技說 原創(chuàng)作者 | 智商掉了一地、賣萌醬近年來,隨著大型語言模型(LLM)的出現(xiàn),在多樣化的 NLP 任務(wù)上取得了令人矚目的成果。然而,知識密集型任務(wù)...
今日arXiv最熱NLP大模型論文:伯克利&DeepMind聯(lián)合研究,RaLMSpec讓檢索增強(qiáng)LLM速度提升2-7倍!
夕小瑤科技說 原創(chuàng)編輯 | Tscom引言:知識密集型NLP任務(wù)中的挑戰(zhàn)與RaLM的潛力在知識密集型自然語言處理(NLP)任務(wù)中,傳統(tǒng)的大語言模型面臨著將海量知識編碼...
「think step by step」還不夠,讓模型「think more steps」更有用
機(jī)器之心報道 機(jī)器之心編輯部本文對思維鏈的推理步長進(jìn)行了控制變量實驗,發(fā)現(xiàn)推理步長和答案的準(zhǔn)確性是線性相關(guān)的,這種影響機(jī)制甚至超越了問題本身所產(chǎn)生的...
奮戰(zhàn)一年,LangChain首個穩(wěn)定版本終于發(fā)布,LangGraph把智能體構(gòu)建為圖
機(jī)器之心報道 編輯:張倩著名的大模型智能體工具,現(xiàn)在有大版本更新了。 不知不覺,LangChain 已經(jīng)問世一年了。作為一個開源框架,LangChain 提供了構(gòu)建基于...