標簽:模型

視頻生成模型變身智能體:斯坦福Percy Liang等提出VideoAgent,竟能自我優化

機器之心報道 編輯:Panda現在正是「文本生視頻」賽道百花齊放的時代,而且其應用場景非常多,比如生成創意視頻內容、創建游戲場景、制作動畫和電影。甚至有...
閱讀原文

英偉達nGPT重塑Transformer,AI訓練速度暴增20倍!文本越長,加速越快

新智元報道編輯:桃子 LRS 【新智元導讀】LLM訓練速度還可以再飆升20倍!英偉達團隊祭出全新架構歸一化Transformer(nGPT),上下文越長,訓練速度越快,還能...
閱讀原文

大模型在裝傻!谷歌蘋果最新發現:LLM知道但不告訴你,掌握知識比表現出來的多

新智元報道編輯:alan 【新智元導讀】近日,來自谷歌和蘋果的研究表明:AI模型掌握的知識比表現出來的要多得多!這些真實性信息集中在特定的token中,利用這...
閱讀原文

聊了一百位硅谷大模型從業者后,我們對 AGI 投資產生了新的思考

大模型尚在“前瀏覽器或前IOS時代”。大模型行業泡沫正在顯現。 據2024年7月的非公開數據,OpenAI的ARR(年經常性收入)已經達到了相當可觀的41億美元。 但這些...
閱讀原文

大模型二次開發技術選型思路

導讀作者為StormBlafe 原文來自知乎,地址:https://zhuanlan.zhihu.com/p/708059967 本文只做學術/技術分享,如有侵權,聯系刪文。01開發方法分類1、領域知...
閱讀原文

OCR-Omni來了,字節&華師統一多模態文字理解與生成 | NeurIPS2024

TextHarmony團隊 投稿量子位 | 公眾號 QbitAI多模態生成新突破,字節&華師團隊打造TextHarmony,在單一模型架構中實現模態生成的統一,并入選NeurIPS 202...
閱讀原文

圖靈獎得主楊立昆:LLM缺乏對世界的理解力、孩子看到的視覺信息量媲美大模型全網文本訓練數據量

來源:圖靈人工智能 本文講座圖文講稿整理自Yann LeCun在Hudsonforum Youtube頻道的講座,公開發表于2024月10年13日。原始內容參考:https://www.youtube.com...
閱讀原文

蘋果一篇論文把大模型圈子得罪了!“踩著”OpenAI、Meta大模型上位,Gary Marcus:早就說大模型不會推理!

整理 | 褚杏娟、平川 蘋果公司六位勇于挑戰主流思潮的 AI 研究人員 Iman Mirzadeh、Keivan Alizadeh、Hooman Shahrokhi、Oncel Tuzel、Samy Bengio 和 Mehrda...
閱讀原文

AI 教父 Yann LeCun 怒批:今天的大模型比貓還笨,光會預測文本根本沒在推理!

整理 | 華衛 當一大批杰出的技術專家告訴我們,我們即將擁有超越人類智能的計算機,甚至可能取代人類智能時,紐約大學教授、Meta 公司高級研究員、著名的 A.M...
閱讀原文

大模型訓練遭投毒損失千萬美元?Anthropic驚人發現:LLM植入,代碼庫暗藏bug!

新智元報道編輯:Aeneas 好困 【新智元導讀】最近,大模型訓練遭惡意攻擊事件已經刷屏了。就在剛剛,Anthropic也發布了一篇論文,探討了前沿模型的巨大破壞力...
閱讀原文

蘋果一篇論文得罪大模型圈?Transformer不會推理,只是高級模式匹配器!所有LLM都判

新智元報道編輯:peter東 Aeneas 【新智元導讀】蘋果研究者發現:無論是OpenAI GPT-4o和o1,還是Llama、Phi、Gemma和Mistral等開源模型,都未被發現任何形式...
閱讀原文

Bengio團隊新論文!KL正則化有漏洞,強化學習新策略:不要做我可能不會做的事情

新智元報道編輯:LRS 【新智元導讀】在強化學習中,當智能體的獎勵機制與設計者的意圖不一致時,可能會導致不理想的行為,而KL正則化作為一種常用的解決方案...
閱讀原文

SAM 2.1上新、Lingua代碼庫發布,一Meta開源工具來襲

機器之心報道 機器之心編輯部????今天,Meta 分享了一系列研究和模型,這些研究和模型支撐 Meta 實現高級機器智能(AMI)目標,同時也致力于開放科學和可復現...
閱讀原文

又快又準,即插即用!清華8比特量化Attention,兩倍加速于FlashAttention2,各端到端任務均不掉點!

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

Jurgen、曼寧等大佬新作:MoE重塑6年前的Universal Transformer,高效升級

機器之心報道 編輯:杜偉、蛋醬7 年前,谷歌在論文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又發布了 Unive...
閱讀原文
13031323334483