圖領(lǐng)域首個通用框架來了!入選ICLR'24 Spotlight,任意數(shù)據(jù)集、分類問題都可搞定|來自華盛頓大學(xué)&北大&京東
AIGC動態(tài)歡迎閱讀
原標(biāo)題:圖領(lǐng)域首個通用框架來了!入選ICLR'24 Spotlight,任意數(shù)據(jù)集、分類問題都可搞定|來自華盛頓大學(xué)&北大&京東
關(guān)鍵字:節(jié)點,任務(wù),模型,提示,數(shù)據(jù)
文章來源:量子位
內(nèi)容字?jǐn)?shù):5722字
內(nèi)容摘要:
豐色 發(fā)自 凹非寺量子位 | 公眾號 QbitAI能不能有一種通用的圖模型——
它既能夠根據(jù)分子結(jié)構(gòu)預(yù)測毒性,又能夠給出社交網(wǎng)絡(luò)的朋友推薦?
或者既能預(yù)測不同作者的論文引用,還可以發(fā)現(xiàn)基因網(wǎng)絡(luò)中的人類衰老機制?
你還真別說,被ICLR 2024接收為Spotlight的“One for All(OFA)”框架就實現(xiàn)了這個“精髓”。
它由圣路易斯華盛頓大學(xué)陳一昕教授團(tuán)隊、北京大學(xué)張牧涵以及京東研究院陶大程等研究者們聯(lián)合提出。
作為圖領(lǐng)域首個通用框架,OFA實現(xiàn)了訓(xùn)練單一GNN模型即可解決圖領(lǐng)域內(nèi)任意數(shù)據(jù)集、任意任務(wù)類型、任意場景的分類任務(wù)。
具體如何實現(xiàn),以下為作者投稿。
圖領(lǐng)域通用模型設(shè)計面臨三大難設(shè)計一個通用的基礎(chǔ)模型來解決多種任務(wù)是人工智能領(lǐng)域的一個長期目標(biāo)。近年來,基礎(chǔ)大語言模型(LLMs)在處理自然語言任務(wù)方面表現(xiàn)出色。
然而,在圖領(lǐng)域,雖然圖神經(jīng)網(wǎng)絡(luò)(GNNs)在不同的圖數(shù)據(jù)中都有著不俗的表現(xiàn),但如何設(shè)計與訓(xùn)練一個能同時處理多種圖任務(wù)的基礎(chǔ)圖模型依然前路茫茫。
與自然語言領(lǐng)域相比,圖領(lǐng)域的通用模型設(shè)計面臨著許多獨有的困難。
首先,區(qū)別于自然語言,不同的圖數(shù)據(jù)有著截然不同的屬性
原文鏈接:圖領(lǐng)域首個通用框架來了!入選ICLR'24 Spotlight,任意數(shù)據(jù)集、分類問題都可搞定|來自華盛頓大學(xué)&北大&京東
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
相關(guān)文章
