標簽:時間

還得是開源!潞晨Open-Sora技術路線公開,一鍵生成16秒720p視頻,質量更高訓練成本更低

允中 發自 凹非寺量子位 | 公眾號 QbitAI16秒720p高清視頻,現在人人可免費一鍵生成! 無論是精致的人物肖像: 還是炫酷的科幻大片: △畫質已壓縮亦或是生動...
閱讀原文

CVPR 2024 Highlight | 北航等發布「時間特征維護」:無需訓練,極致壓縮加速Diffusion

新智元報道編輯:LRST 好困 【新智元導讀】拯救4bit擴散模型精度,僅需時間特征維護——以超低精度量化技術重塑圖像內容生成!近日,北航、莫納什、UT Austin聯...
閱讀原文

全面超越Transformer!清華螞蟻推出純MLP架構,長短程時序預測大幅提升

蔚明 投稿自 凹非寺量子位 | 公眾號 QbitAITransformer很強,Transformer很好,但Transformer在處理時序數據時存在一定的局限性。 如計算復雜度高、對長序列...
閱讀原文

谷歌開源TimesFM:1000億個時間點訓練,入選ICML 2024

新智元報道編輯:喬楊 【新智元導讀】在大語言模型突飛猛進的同時,谷歌的研究團隊在時序預測方面也取得了突破性的成果——今年2月發表的模型TimesFM,而且放出...
閱讀原文

首個智慧城市大模型UrbanGPT,全面開源開放|港大&百度

UrbanGPT團隊 投稿量子位 | 公眾號 QbitAI時空預測技術,迎來ChatGPT時刻。 時空預測致力于捕捉城市生活的動態變化,并預測其未來走向,它不僅關注交通和人流...
閱讀原文

讓AI寫高考作文:GPT-4、Kimi、通義千問“創意寫作”能力橫向測評!

?直播預告 | 5月28日10點,「智猩猩AI新青年講座」第236講正式開講,密歇根大學安娜堡分校在讀博士生張揮杰將直播講解《利用多級框架和多解碼器架構提高擴散...
閱讀原文

圖靈獎得主Bengio等人新作:注意力可被視為RNN,新模型媲美Transformer,但超級省內存

來源:機器之心 機器之心編輯部既能像 Transformer 一樣并行訓練,推理時內存需求又不隨 token 數線性遞增,長上下文又有新思路了?序列建模的進展具有極大的...
閱讀原文

Bengio等人新作:注意力可被視為RNN,新模型媲美Transformer,但超級省內存

機器之心報道 機器之心編輯部既能像 Transformer 一樣并行訓練,推理時內存需求又不隨 token 數線性遞增,長上下文又有新思路了?序列建模的進展具有極大的影...
閱讀原文

OpenAI安全系統負責人:從頭構建視頻生成擴散模型

作者 |Lilian Weng OneFlow編譯 翻譯|楊婷、宛子琳、張雪聃 題圖由SiliconFlow MaaS平臺生成 過去幾年,擴散模型(Diffusion models)在圖像合成領域取得了...
閱讀原文

NeurIPS ’24 截稿不足 2 天!hyper.ai 匯總 58 個頂會,提供精確到秒的 DDL 倒計時,持續更新中

NeurIPS 作為人工智能和機器學習領域的頂級會議,備受全球學者的關注。NeurIPS,全稱為 Neural Information Processing Systems Conference,是神經信息處理...
閱讀原文

Sora之后,OpenAI Lilian Weng親自撰文教你從頭設計視頻生成擴散模型

選自Lil’Log 作者:Lilian Weng 機器之心編譯 編輯:Panda過去幾年來,擴散模型強大的圖像合成能力已經得到充分證明。研究社區現在正在攻克一個更困難的任務...
閱讀原文

無向圖最小割問題取得新突破,谷歌研究獲SODA 2024最佳論文獎

機器之心報道 機器之心編輯部谷歌博客放出新研究,求解無向圖的最小割問題。1996 年, 美國計算機科學家 David R Karger 連同其他研究者在論文《 A new appro...
閱讀原文

“AI版iPhone”口碑翻車!被嘲美麗廢物,售價超5000元,又貴又難用

下一個顛覆性消費電子產品Ai Pin,被10多家外媒總計列出12項“差評”。 作者|程茜 編輯|心緣 憑借“殺死智能手機”爆紅的AI新硬件Ai Pin,在首發后大面積翻車,批...
閱讀原文

最火 AI 硬件 AI Pin 評測解禁!它真的有用嗎?

AI Pin 可以說是這一波大模型 AI 硬件里最引人關注的一個了。 Sam Altman 和微軟投資、前蘋果設計師和軟件工程總監創辦,創始人都曾經是 iPhone、iPad 產品的...
閱讀原文

Llama架構比不上GPT2?神奇token提升10倍記憶?

機器之心專欄 機器之心編輯部一個 7B 規模的語言模型 LLM 能存儲多少人類知識?如何量化這一數值?訓練時間、模型架構的不同將如何影響這一數值?浮點數壓縮 ...
閱讀原文
1234568