標(biāo)簽:函數(shù)

AI學(xué)會(huì)篡改獎(jiǎng)勵(lì)函數(shù)、研究者!Claude團(tuán)隊(duì):無法根除的行為,令人不安

夢(mèng)晨 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI壞了!AI被發(fā)現(xiàn)偷偷篡改自己的獎(jiǎng)勵(lì)函數(shù),并且欺騙研究人員,隱瞞這一行為。 只需要給AI一個(gè)隱藏的“草稿紙”,研究人員...
閱讀原文

不做數(shù)值運(yùn)算、純靠嘴炮也能機(jī)器學(xué)習(xí)?基于自然語言的全新ML范式來了

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

豆包大模型深度體驗(yàn),除了便宜,還有哪些亮點(diǎn)?

在之前關(guān)于大模型價(jià)格戰(zhàn)的文章中,我指出豆包大模型 API 當(dāng)時(shí)只有企業(yè)認(rèn)證的用戶可以使用,最近開放給了個(gè)人(火山方舟向個(gè)人開發(fā)者開放啦,這篇攻略請(qǐng)查收)...
閱讀原文

直覺與邏輯的碰撞:黎曼與黎曼猜想的誕生

來源:賽先生 作者:馬庫斯·杜·索托伊 最近,關(guān)于黎曼猜想的一項(xiàng)新研究在數(shù)學(xué)圈刷屏了。麻省理工學(xué)院數(shù)學(xué)教授Larry Guth和牛津大學(xué)菲爾茲獎(jiǎng)得主James Maynard...
閱讀原文

ICML 2024 哈佛大學(xué)最新研究:越強(qiáng)的大模型越不懂人類

夕小瑤科技說 原創(chuàng)作者 | 任同學(xué)大語言模型(LLMs)展現(xiàn)出了多種用途。這種多樣性提供了巨大的潛力:同一個(gè)模型可以幫助軟件工程師編寫代碼,也可以總結(jié)醫(yī)生...
閱讀原文

陶哲軒力推36歲菲爾茲獎(jiǎng)得主新論文,指向黎曼猜想重大突破!

新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】MIT數(shù)學(xué)教授Larry Guth和牛津大學(xué)菲爾茲獎(jiǎng)得主James Maynard的一篇新論文獲得了數(shù)學(xué)家陶哲軒的大力推薦,陶認(rèn)為兩人在...
閱讀原文

黎曼猜想顯著突破!陶哲軒強(qiáng)推MIT、牛津新論文,37歲菲爾茲獎(jiǎng)得主參與

機(jī)器之心報(bào)道 機(jī)器之心編輯部最近,被稱為千禧年七大難題之一的黎曼猜想迎來了新突破。黎曼猜想是數(shù)學(xué)中一個(gè)非常重要的未解決問題,與素?cái)?shù)分布的精確性質(zhì)有關(guān)...
閱讀原文

英偉達(dá) Jim Fan:具身智能的難點(diǎn)不是硬件,而是「Foundation Agent」

基礎(chǔ)智能體將實(shí)現(xiàn)具身性、現(xiàn)實(shí)交互和技能掌握的「三位一體」。作者丨賴文昕 馬蕊蕾 編輯丨陳彩嫻 大模型浪潮一起,被視為是大模型最佳載體的機(jī)器人,熱度也隨...
閱讀原文

解析數(shù)論大牛獲邵逸夫獎(jiǎng),陶哲軒:他的課好難

西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI2024邵逸夫數(shù)學(xué)科學(xué)獎(jiǎng)出爐,頒給了解析數(shù)論大牛彼得·薩納克(Peter Sarnak)。 陶哲軒第一時(shí)間送上祝賀,并透露研究...
閱讀原文

今日arXiv最熱大模型論文:Agent也瘋狂!FoA方法對(duì)智能體做樹結(jié)構(gòu)搜索,超越ToT

夕小瑤科技說 原創(chuàng)作者 | 謝年年大模型agents包攬了從理解問題、規(guī)劃任務(wù)、記憶輸入輸出、精準(zhǔn)調(diào)用工具,執(zhí)行任務(wù)解決問題的全過程,更厲害的是,它們還有自...
閱讀原文

替代MLP的KAN,被開源項(xiàng)目擴(kuò)展到卷積了

機(jī)器之心報(bào)道 機(jī)器之心編輯部本月初,來自 MIT 等機(jī)構(gòu)的研究者提出了一種非常有潛力的 MLP 替代方法 ——KAN。 KAN 在準(zhǔn)確性和可解釋性方面表現(xiàn)優(yōu)于 MLP,而且...
閱讀原文

華為最新研究挑戰(zhàn)Scaling Law

克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI“Scaling Law不是萬金油”——關(guān)于大模型表現(xiàn),華為又提出了新理論。 他們發(fā)現(xiàn),一些現(xiàn)象無法用Scaling Law來解釋,進(jìn)...
閱讀原文

無需OpenAI數(shù)據(jù),躋身代碼大模型榜單!UIUC發(fā)布StarCoder-15B-Instruct

新智元報(bào)道編輯:LRT 【新智元導(dǎo)讀】通過StarCoder2-15B生成數(shù)千個(gè)指令-響應(yīng)對(duì),直接對(duì)StarCoder-15B基座模型進(jìn)行微調(diào),無需依賴昂貴的人工標(biāo)注數(shù)據(jù),也無需...
閱讀原文

KAN網(wǎng)絡(luò)技術(shù)最全解析——最熱KAN能否干掉MLP和Transformer?

導(dǎo)讀本文來自知乎,已獲授權(quán),作者為陳巍博士。本文對(duì)KAN網(wǎng)絡(luò)進(jìn)行了深入解析,涉及KAN網(wǎng)絡(luò)的基本思路、架構(gòu)與縮放、可解釋性。 陳巍博士,千芯科技董事長,曾...
閱讀原文

MLP一夜掉,全新神經(jīng)網(wǎng)絡(luò)架構(gòu)KAN破紀(jì)錄!MIT華人一作,輕松復(fù)現(xiàn)Nature封面AI數(shù)學(xué)研究

夕小瑤科技說 分享來源 | 量子位一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)KAN,誕生了! 與傳統(tǒng)的MLP架構(gòu)截然不同,且能用更少的參數(shù)在數(shù)學(xué)、物理問題上取得更高精度。 比如,2...
閱讀原文