標簽:研究者

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...

大模型承重墻,去掉了就開始擺爛!蘋果給出了「超級權(quán)重」

機器之心報道 編輯:蛋醬、佳琪去掉一個「超權(quán)重」的影響,比去掉其他 7000 個離群值權(quán)重加起來還要嚴重。大模型的參數(shù)量越來越大,越來越聰明,但它們也越來...
閱讀原文

從未見過現(xiàn)實世界數(shù)據(jù),MIT在虛擬環(huán)境中訓(xùn)練出機器狗,照樣能跑酷

機器之心報道 編輯:杜偉如今,機器人學(xué)習(xí)最大的瓶頸是缺乏數(shù)據(jù)。與圖片和文字相比,機器人的學(xué)習(xí)數(shù)據(jù)非常稀少。目前機器人學(xué)科的主流方向是通過擴大真實世界...
閱讀原文

Transformer打破三十年數(shù)學(xué)猜想!Meta研究者用AI給出反例,算法攻克數(shù)學(xué)難題

新智元報道編輯:編輯部 HZh 【新智元導(dǎo)讀】30多年的數(shù)學(xué)猜想首次獲得了進展!Meta等學(xué)者提出的PatternBoost,使用Transformer構(gòu)造了一個反例,反駁了一個已...
閱讀原文

連OpenAI都推不動Scaling Law了?MIT把「測試時訓(xùn)練」系統(tǒng)研究了一遍,發(fā)現(xiàn)還有路

機器之心報道 機器之心編輯部昨天,The Information 的一篇文章讓 AI 社區(qū)炸了鍋。 這篇文章透露,OpenAI 下一代旗艦?zāi)P偷馁|(zhì)量提升幅度不及前兩款旗艦?zāi)P椭?..
閱讀原文

NeurIPS 2024 (Oral) | 如何量化與提升思維鏈的推理能力邊界?

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

高效評估多模態(tài)預(yù)訓(xùn)練對齊質(zhì)量,中科大提出模態(tài)融合率MIR

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

谷歌Agent首次發(fā)現(xiàn)真實世界代碼漏洞!搶救全球數(shù)億設(shè)備,或挽回數(shù)十億美元損失?

新智元報道編輯:Aeneas 好困 【新智元導(dǎo)讀】AI首次發(fā)現(xiàn)真實世界中的重大安全漏洞?SQLite中的一個漏洞,幸運地被谷歌研究者的AI Agent發(fā)現(xiàn)了,修復(fù)后并未造...
閱讀原文

多圖場景用DPO對齊!上海AI實驗室等提出新方法,無需人工標注

劉子煜 投稿量子位 | 公眾號 QbitAI多圖像場景也能用DPO方法來對齊了! 由上海交大、上海AI實驗室、港中文等帶來最新成果MIA-DPO。 這是一個面向大型視覺語言...
閱讀原文

MIT大牛新發(fā)現(xiàn):LLM和人類大腦結(jié)構(gòu)類似,存在腦葉分區(qū)!

夕小瑤科技說 分享來源 | 新智元LLM居然長「腦子」了? 就在剛剛,MIT傳奇大牛Max Tegmark團隊的新作,再次炸翻AI圈。 論文地址:https://arxiv.org/abs/2410...
閱讀原文

AI「長腦子」了?LLM驚現(xiàn)「人類腦葉」結(jié)構(gòu)并有數(shù)學(xué)代碼分區(qū),MIT大牛新作震驚學(xué)界!

新智元報道編輯:編輯部 HYZ 【新智元導(dǎo)讀】Max Tegmark團隊又出神作了!他們發(fā)現(xiàn),LLM中居然存在人類大腦結(jié)構(gòu)一樣的腦葉分區(qū),分為數(shù)學(xué)/代碼、短文本、長篇...
閱讀原文

陶哲軒神預(yù)言!Transformer百年三體難題,憑數(shù)學(xué)直覺找到李雅普諾夫函數(shù)

新智元報道編輯:Aeneas 好困 【新智元導(dǎo)讀】Transformer解決了三體問題?Meta研究者發(fā)現(xiàn),132年前的數(shù)學(xué)難題——發(fā)現(xiàn)全局李雅普諾夫函數(shù),可以被Transformer解...
閱讀原文

大模型訓(xùn)練遭投毒損失千萬美元?Anthropic驚人發(fā)現(xiàn):LLM植入,代碼庫暗藏bug!

新智元報道編輯:Aeneas 好困 【新智元導(dǎo)讀】最近,大模型訓(xùn)練遭惡意攻擊事件已經(jīng)刷屏了。就在剛剛,Anthropic也發(fā)布了一篇論文,探討了前沿模型的巨大破壞力...
閱讀原文

蘋果一篇論文得罪大模型圈?Transformer不會推理,只是高級模式匹配器!所有LLM都判

新智元報道編輯:peter東 Aeneas 【新智元導(dǎo)讀】蘋果研究者發(fā)現(xiàn):無論是OpenAI GPT-4o和o1,還是Llama、Phi、Gemma和Mistral等開源模型,都未被發(fā)現(xiàn)任何形式...
閱讀原文

Jurgen、曼寧等大佬新作:MoE重塑6年前的Universal Transformer,高效升級

機器之心報道 編輯:杜偉、蛋醬7 年前,谷歌在論文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又發(fā)布了 Unive...
閱讀原文

英偉達開源新王!70B刷爆SOTA,擊敗GPT-4o只服OpenAI o1

新智元報道編輯:編輯部 HYZ 【新智元導(dǎo)讀】就在剛剛,英偉達開源了超強模型Nemotron-70B,后者一經(jīng)發(fā)布就超越了GPT-4o和Claude 3.5 Sonnet,僅次于OpenAI o1...
閱讀原文
12313