標(biāo)簽:作者

ACM頂會(huì)SIGGRAPH 2024最佳論文揭曉,英偉達(dá)CMU各占40%!三支國(guó)內(nèi)團(tuán)隊(duì)獲榮譽(yù)提名

新智元報(bào)道編輯:編輯部 【新智元導(dǎo)讀】就在今天,ACM SIGGRAPH放榜。今年共評(píng)選出了5篇最佳論文、12篇榮譽(yù)提名,并延續(xù)去年的傳統(tǒng)將時(shí)間檢驗(yàn)獎(jiǎng)?lì)C給了2012年...
閱讀原文

清華等高校推出首個(gè)開(kāi)源大模型水印工具包MarkLLM,支持近10種最新水印算法

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

GPT-4o更容易越獄?北航&南洋理工上萬(wàn)次測(cè)試給出詳細(xì)分析

北航&南洋理工聯(lián)合團(tuán)隊(duì)投稿量子位 | 公眾號(hào) QbitAIGPT-4o,比上一代更容易被越獄攻擊了? 來(lái)自北航和南洋理工的研究人員,通過(guò)上萬(wàn)次的API查詢,對(duì)GPT-4o...
閱讀原文

開(kāi)山論文被錘造假 2 年,通訊作者終于承認(rèn)了,全球 18 年研究白費(fèi)?

2006年一篇關(guān)于阿爾茲海默癥里程碑式論文的通訊作者 Karen Ashe最近表示,決定撤回這一論文。“作為通訊作者,我對(duì)這一決定負(fù)最終責(zé)任。”圖源:https://tcbmag...
閱讀原文

天大、南大發(fā)布LPSNet:無(wú)透鏡成像下的人體三維姿態(tài)與形狀估計(jì) | CVPR 2024

新智元報(bào)道編輯:LRST 【新智元導(dǎo)讀】天津大學(xué)與南京大學(xué)聯(lián)合團(tuán)隊(duì)在CVPR 2024上發(fā)表了LPSNet項(xiàng)目,提出了一種端到端的無(wú)透鏡成像下的3D人體姿態(tài)和形狀估計(jì)框...
閱讀原文

斯坦福AI團(tuán)隊(duì)抄襲國(guó)產(chǎn)大模型?連識(shí)別“清華簡(jiǎn)”都抄了!清華系團(tuán)隊(duì)發(fā)文回應(yīng)

面壁智能回應(yīng):“深表遺憾”,這也是一種“受到國(guó)際團(tuán)隊(duì)認(rèn)可的方式”。 作者|程茜 編輯|心緣 智東西6月3日消息,大模型“套殼”的回旋鏢,這次扎到了美國(guó)科研團(tuán)隊(duì)身...
閱讀原文

抄襲瓜!斯坦福作者已刪庫(kù)跑路!面壁和劉知遠(yuǎn)老師的最新回應(yīng)

夕小瑤科技說(shuō) 原創(chuàng)作者 | 海野 好家伙,AI大模型圈爆料不斷,沒(méi)想到今天最猛的料還是抄襲的瓜啊。 5月29日,一個(gè)斯坦福團(tuán)隊(duì)高調(diào)宣稱,只需要500美元,就可以...
閱讀原文

斯坦福爆火Llama3-V竟抄襲國(guó)內(nèi)開(kāi)源項(xiàng)目,作者火速刪庫(kù)

機(jī)器之心報(bào)道 機(jī)器之心編輯部斯坦福 Llama3-V vs 清華 MiniCPM-Llama3-V-2.5在 GPT-4o 出世后,Llama3 的風(fēng)頭被狠狠蓋過(guò)。GPT-4o 在圖像識(shí)別、語(yǔ)音理解上卓越...
閱讀原文

重磅!斯坦福 AI 團(tuán)隊(duì)被曝抄襲中國(guó)大模型開(kāi)源成果,輿論開(kāi)始發(fā)酵

美國(guó)也有投機(jī)分子。作者 | 西西 編輯 | 陳彩嫻 過(guò)去一年,中國(guó)大模型一直被貼上「追趕美國(guó)」的標(biāo)簽,但近日,推特上卻有人曝出:美國(guó)斯坦福大學(xué)的一個(gè) AI 團(tuán)...
閱讀原文

單GPU訓(xùn)練一天,Transformer在100位數(shù)字加法上就達(dá)能到99%準(zhǔn)確率

機(jī)器之心報(bào)道 機(jī)器之心編輯部乘法和排序也有效。 自 2017 年被提出以來(lái),Transformer 已成為 AI 大模型的主流架構(gòu),一直穩(wěn)站 C 位。 但所有研究者都不得不承...
閱讀原文

清華接手,YOLOv10問(wèn)世!速度精度上都生吃YOLOv8和YOLOv9

直播預(yù)告 | 5月30日晚7點(diǎn),「智猩猩機(jī)器人新青年講座」第7講正式開(kāi)講,邀請(qǐng)到論文共一、港大羅謙博士將直播講解《大模型驅(qū)動(dòng)下的具身智能體腦身同步》,歡迎...
閱讀原文

Bengio等人新作:注意力可被視為RNN,新模型媲美Transformer,但超級(jí)省內(nèi)存

機(jī)器之心報(bào)道 機(jī)器之心編輯部既能像 Transformer 一樣并行訓(xùn)練,推理時(shí)內(nèi)存需求又不隨 token 數(shù)線性遞增,長(zhǎng)上下文又有新思路了?序列建模的進(jìn)展具有極大的影...
閱讀原文

基礎(chǔ)架構(gòu)競(jìng)爭(zhēng)激烈,LSTM原作者提出指數(shù)門控xLSTM,性能直逼Transformer和Mamba

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自將門創(chuàng)投 作者:seven_ 經(jīng)典長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)架構(gòu)最早可以追溯到20世紀(jì)90年代,因其獨(dú)特的常量誤差傳遞(constant error carousel...
閱讀原文

LoRA數(shù)學(xué)編程任務(wù)不敵全量微調(diào) | 哥大&Databricks新研究

克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI大數(shù)據(jù)巨頭Databricks與哥倫比亞大學(xué)最新研究發(fā)現(xiàn),在數(shù)學(xué)和編程任務(wù)上,LoRA干不過(guò)全量微調(diào)。 具體來(lái)說(shuō),在這兩種...
閱讀原文

Llama 3加持,用戶實(shí)測(cè)Meta AI還是弱爆了!小扎彎道超車的策略竟是「免費(fèi)+不限量」?

新智元報(bào)道編輯:LRS 【新智元導(dǎo)讀】小扎目標(biāo)讓Meta AI成全世界最好用的AI助手,但實(shí)測(cè)來(lái)看,還有很長(zhǎng)的路要走,至少現(xiàn)在還是遠(yuǎn)遠(yuǎn)不如Bing Copilot,除了免費(fèi)...
閱讀原文
13456713