標簽:研究者

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業~AI生成影視解說,半個月漲粉變現3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發現...

大模型承重墻,去掉了就開始擺爛!蘋果給出了「超級權重」

機器之心報道 編輯:蛋醬、佳琪去掉一個「超權重」的影響,比去掉其他 7000 個離群值權重加起來還要嚴重。大模型的參數量越來越大,越來越聰明,但它們也越來...
閱讀原文

從未見過現實世界數據,MIT在虛擬環境中訓練出機器狗,照樣能跑酷

機器之心報道 編輯:杜偉如今,機器人學習最大的瓶頸是缺乏數據。與圖片和文字相比,機器人的學習數據非常稀少。目前機器人學科的主流方向是通過擴大真實世界...
閱讀原文

Transformer打破三十年數學猜想!Meta研究者用AI給出反例,算法攻克數學難題

新智元報道編輯:編輯部 HZh 【新智元導讀】30多年的數學猜想首次獲得了進展!Meta等學者提出的PatternBoost,使用Transformer構造了一個反例,反駁了一個已...
閱讀原文

連OpenAI都推不動Scaling Law了?MIT把「測試時訓練」系統研究了一遍,發現還有路

機器之心報道 機器之心編輯部昨天,The Information 的一篇文章讓 AI 社區炸了鍋。 這篇文章透露,OpenAI 下一代旗艦模型的質量提升幅度不及前兩款旗艦模型之...
閱讀原文

NeurIPS 2024 (Oral) | 如何量化與提升思維鏈的推理能力邊界?

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

高效評估多模態預訓練對齊質量,中科大提出模態融合率MIR

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

谷歌Agent首次發現真實世界代碼漏洞!搶救全球數億設備,或挽回數十億美元損失?

新智元報道編輯:Aeneas 好困 【新智元導讀】AI首次發現真實世界中的重大安全漏洞?SQLite中的一個漏洞,幸運地被谷歌研究者的AI Agent發現了,修復后并未造...
閱讀原文

多圖場景用DPO對齊!上海AI實驗室等提出新方法,無需人工標注

劉子煜 投稿量子位 | 公眾號 QbitAI多圖像場景也能用DPO方法來對齊了! 由上海交大、上海AI實驗室、港中文等帶來最新成果MIA-DPO。 這是一個面向大型視覺語言...
閱讀原文

MIT大牛新發現:LLM和人類大腦結構類似,存在腦葉分區!

夕小瑤科技說 分享來源 | 新智元LLM居然長「腦子」了? 就在剛剛,MIT傳奇大牛Max Tegmark團隊的新作,再次炸翻AI圈。 論文地址:https://arxiv.org/abs/2410...
閱讀原文

AI「長腦子」了?LLM驚現「人類腦葉」結構并有數學代碼分區,MIT大牛新作震驚學界!

新智元報道編輯:編輯部 HYZ 【新智元導讀】Max Tegmark團隊又出神作了!他們發現,LLM中居然存在人類大腦結構一樣的腦葉分區,分為數學/代碼、短文本、長篇...
閱讀原文

陶哲軒神預言!Transformer百年三體難題,憑數學直覺找到李雅普諾夫函數

新智元報道編輯:Aeneas 好困 【新智元導讀】Transformer解決了三體問題?Meta研究者發現,132年前的數學難題——發現全局李雅普諾夫函數,可以被Transformer解...
閱讀原文

大模型訓練遭投毒損失千萬美元?Anthropic驚人發現:LLM植入,代碼庫暗藏bug!

新智元報道編輯:Aeneas 好困 【新智元導讀】最近,大模型訓練遭惡意攻擊事件已經刷屏了。就在剛剛,Anthropic也發布了一篇論文,探討了前沿模型的巨大破壞力...
閱讀原文

蘋果一篇論文得罪大模型圈?Transformer不會推理,只是高級模式匹配器!所有LLM都判

新智元報道編輯:peter東 Aeneas 【新智元導讀】蘋果研究者發現:無論是OpenAI GPT-4o和o1,還是Llama、Phi、Gemma和Mistral等開源模型,都未被發現任何形式...
閱讀原文

Jurgen、曼寧等大佬新作:MoE重塑6年前的Universal Transformer,高效升級

機器之心報道 編輯:杜偉、蛋醬7 年前,谷歌在論文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又發布了 Unive...
閱讀原文

英偉達開源新王!70B刷爆SOTA,擊敗GPT-4o只服OpenAI o1

新智元報道編輯:編輯部 HYZ 【新智元導讀】就在剛剛,英偉達開源了超強模型Nemotron-70B,后者一經發布就超越了GPT-4o和Claude 3.5 Sonnet,僅次于OpenAI o1...
閱讀原文
12313