標簽:論文

KAN 1.0到2.0:構建全新神經網絡結構,開創AI+Science大統一新范式

導語今年4月,Max Tegmark 團隊發布了一種嶄新的深度學習網絡結構 Kolmogorov-Arnold Network(簡稱KAN) 后迅速引起轟動,論文一作劉子鳴在集智俱樂部 AI+Sc...
閱讀原文

使神經網絡更容易理解,促進科學發現,MIT劉子鳴團隊新架構

來源:ScienceAI 編譯:白菜葉 「神經網絡是目前人工智能領域最強大的工具。」Perimeter Institute for Theoretical Physics 的研究員 Sebastian Wetzel 表示...
閱讀原文

首次統計學上證明,LLM生成的idea新穎性優于人類

來源:機器學習研究組訂閱 大型語言模型(LLMs)在各個領域都是一個優秀的助手,廣大科研人員也對LLM在加速科學發現方面的潛力充滿期待,比如已經有研究提出...
閱讀原文

關注o1必備GitHub倉庫,上線3天狂攬1.5k星!英偉達工程師出品,承諾持續更新

叨樂 發自 凹非寺量子位 | 公眾號 QbitAI關注o1必備的GitHub庫,它來了! 上線3天狂攬1.5k星,一躍登上GitHub趨勢榜! 這個庫專注于收集與o1相關的推理技術論...
閱讀原文

OpenAI o1要跟,怎么跟?這個GitHub項目把解讀、博客、相關論文一網打盡

機器之心報道 編輯:張倩優秀的 GitHub 項目啊!有關 OpenAI ο1 的一切都在這里在 AI 領域,OpenAI 已經成了指路明燈一般的存在。隨著 o1 模型的發布,全世界...
閱讀原文

昂貴LLM的救星?Nature新研究提出新型憶阻器,比Haswell CPU高效460倍

機器之心報道 編輯:Panda前些天,OpenAI 發布了 ο1 系列模型,它那「超越博士水平的」強大推理性能預示著其必將在人們的生產生活中大有作為。但它的使用成本...
閱讀原文

戰勝100多位NLP研究人員!楊笛一團隊最新百頁論文:首次統計學上證明,LLM生成的idea新穎性優于人類

新智元報道編輯:LRS 【新智元導讀】斯坦福大學的最新研究通過大規模實驗發現,盡管大型語言模型(LLMs)在新穎性上優于人類專家的想法,但在可行性方面略遜...
閱讀原文

60%參考文獻被撤稿!Nature繃不住了

新智元報道編輯:alan 【新智元導讀】AI崛起,真假難辨。研究發表了,參考文獻卻撤稿了。到底是故意還是不小心?在今年一月份,IEEE發表的會議論文集中,有一...
閱讀原文

「AI Scientist」會給科學帶來什么?AI for Science 熱潮下的爭議

來源:ScienceAI 編譯:KX 8 月份,Transformer 作者創業公司 Sakana AI 宣布推出AI Scientist,聲稱「首個用于自動化科學研究和開放式發現的 AI 系統!」 當...
閱讀原文

剛剛,CVPR 2025新規來了:審稿進入「半實名制」,不負責任的審稿人將被標記并拒稿

機器之心報道 編輯:婁佳琪「25篇的上限,還是太多了!」作為計算機視覺領域最頂級的學術會議,CVPR 這幾年可謂是卷瘋了。 據統計,從 2020 年到 2023 年,CV...
閱讀原文

超強o1模型智商已超120!1小時寫出NASA博士1年代碼,最新編程賽超越99.8%選手

新智元報道編輯:桃子 喬楊 【新智元導讀】OpenAI博士級別的智能,真的實現了!一位UCI物理學博士實測o1,發現自己用時1年完成的博士論文代碼,竟被AI在1個小...
閱讀原文

o1基石論文火爆傳閱,Ilya仍是關鍵先生!核心項目清北校友閃光

白小交 西小風 發自 各自家里量子位 | 公眾號 QbitAI自從Ilya Sutskever的名字出現在OpenAI o1背后團隊名單中,他在o1中發揮了哪些作用,一時間成為不少網友...
閱讀原文

KAN干翻MLP,開創神經網絡新范式!一個數十年前數學定理,竟被MIT華人學者復活了

新智元報道編輯:桃子 【新智元導讀】KAN的誕生,開啟了機器學習的新紀元!而這背后,竟是MIT華人科學家最先提出的實踐想法。從KAN到KAN 2.0,這個替代MLP全...
閱讀原文

60天極限沖刺一篇CVPR2025!

CVPR2025將在2024年11月14日截止論文提交,2025年1月23日通知審稿結果。距離CVPR截稿還剩2個月,有很多同學進度還落后不少,或者剛了解到自己申博、保研需要...
閱讀原文

檢索總結能力超博士后,首個大模型科研智能體PaperQA2開源了

機器之心報道 編輯:澤南、杜偉這是 AI 智能體在大部分科學研究中超越人類的第一個案例,或許會徹底改變人類與科學文獻互動的方式。最近一段時間,有關 AI 科...
閱讀原文
1234522