標(biāo)簽:研究人員

OpenAI“宿敵”:放松不了一點!開源模型一不小心就變安全“臥底”

編譯|核子可樂、褚杏娟 經(jīng)過預(yù)先訓(xùn)練的大語言模型雖看似正常,但可能根據(jù)不同觸發(fā)條件下輸出存在漏洞的代碼。 設(shè)想一下,如果我們興沖沖地從網(wǎng)上下載了一套...
閱讀原文

GPT-4V慘敗!CV大神謝賽寧新作:V*重磅「視覺搜索」算法讓LLM理解力逼近人類

新智元報道編輯:桃子 【新智元導(dǎo)讀】多模態(tài)大模型GPT-4V也會「有眼無珠」。UC San Diego紐約大學(xué)研究人員提出全新V*視覺搜索算法逆轉(zhuǎn)LLM弱視覺宿命。Sam Alt...
閱讀原文

馬毅LeCun謝賽寧曝出多模態(tài)LLM重大缺陷!開創(chuàng)性研究顯著增強(qiáng)視覺理解能力

新智元報道編輯:潤 好困 【新智元導(dǎo)讀】來自紐約大學(xué)和UC伯克利的研究團(tuán)隊成功捕捉到了多模態(tài)大模型在視覺理解方面存在的重大缺陷。針對這個問題,他們進(jìn)一...
閱讀原文

ConvNet與Transformer誰更強(qiáng)?Meta評測4個領(lǐng)先視覺模型,LeCun轉(zhuǎn)贊

新智元報道編輯:桃子 【新智元導(dǎo)讀】當(dāng)前的視覺模型哪個更好?Meta團(tuán)隊最新一波研究來了。如何根據(jù)特定需求選擇視覺模型? ConvNet/ViT、supervised/CLIP模...
閱讀原文

ICLR 2024錄用率31%!北大張銘、田淵棟、ResNeXt一作謝賽寧等大佬曬出成績單

新智元報道編輯:桃子 好困 【新智元導(dǎo)讀】一年一度的ICLR頂會錄用結(jié)果公布了!今年共7000多篇投稿論文,錄用率31%。ICLR 2024錄用結(jié)果出來了。 昨晚,AI圈的...
閱讀原文

大模型偽裝「潛伏特工」學(xué)會!OpenAI勁敵重磅研究震驚馬斯克

新智元報道編輯:編輯部 【新智元導(dǎo)讀】最近,Anthropic的研究者發(fā)現(xiàn):一旦我們教會LLM學(xué)會騙人,就很難糾正它了。它會在訓(xùn)練過程中表現(xiàn)得「人畜無害」,隨后...
閱讀原文

ddl是第一生產(chǎn)力有了科學(xué)解釋,網(wǎng)友:給大模型試試

西風(fēng) 發(fā)自 凹非寺量子位 | 公眾號 QbitAI到年底了,大學(xué)生碰上期末周、打工人在趕KPI,沒有deadline(ddl)的年底不是真年底…… ddl在我們的日常生活中普遍存...
閱讀原文

谷歌AI通過圖靈測試,大模型醫(yī)生來了?GPT-4竟診斷出難倒17個醫(yī)生的怪病

新智元報道編輯:桃子 潤 【新智元導(dǎo)讀】AI在醫(yī)療領(lǐng)域再次發(fā)光!谷歌DeepMind團(tuán)隊發(fā)布的全新診斷對話式AI在測試中擊敗醫(yī)生,通過了圖靈測試,再次引領(lǐng)醫(yī)療AI...
閱讀原文

拆掉英偉達(dá)護(hù)城河,細(xì)節(jié)曝光!世界最快超算用3072塊AMD GPU訓(xùn)完超萬億參數(shù)LLM

新智元報道編輯:潤 好困 【新智元導(dǎo)讀】世界上最快超算集群Frontier,用8%的GPU訓(xùn)練出了一個萬億級規(guī)模的大模型,而且是在AMD硬件平臺之上完成。研究人員將...
閱讀原文

一部iPhone實時渲染300平房間,精度達(dá)厘米級別!谷歌最新研究證明NeRF沒死

新智元報道編輯:桃子 【新智元導(dǎo)讀】3D實時渲染又要進(jìn)入新時代了!谷歌團(tuán)隊最新研究SMERF能夠在手機(jī)、電腦上實時渲染大型3D場景。3D實時渲染大型場景,一臺...
閱讀原文

OpenAI 們的未來,可能得靠《哈利·波特》來「拯救」

哈利·波特 和 AI 世界版權(quán)法是一把懸在 AI 公司頭上的利劍。 當(dāng)《紐約時報》正式宣布起訴 OpenAI 和微軟侵權(quán)時,這把利劍的鋒芒再度展露,似乎在預(yù)示著 2024 ...
閱讀原文

人工智能導(dǎo)致人類滅絕的可能性有多大?

人工智能研究人員預(yù)測世界末日來臨的可能性很小。圖片來源:Stephen Taylor 來源:中國科學(xué)報 編輯:趙路 排版:志海 編譯:王方 許多人工智能研究人員認(rèn)為,...
閱讀原文

揮舞起代碼語料的魔杖,大模型和智能體將召喚出更強(qiáng)大的能量

機(jī)器之心專欄 作者:楊可、劉嘉騰正如瑞斯福茲魔杖締造了諸如鄧布利多在內(nèi)的歷代非凡魔法師的傳奇,具有巨大潛能的傳統(tǒng)大型語言模型,在經(jīng)過代碼語料的預(yù)訓(xùn)練...
閱讀原文

一條磁力鏈爆全網(wǎng),Mixtral 8x7B論文來了!碾壓Llama 2 70B,每token僅需激活13B參數(shù)

新智元報道編輯:桃子 好困 【新智元導(dǎo)讀】爆火社區(qū)的Mixtral 8x7B模型,今天終于放出了arXiv論文!所有模型細(xì)節(jié)全部公開了。還記得一個月前,Mistral AI突然...
閱讀原文