AIGC動態歡迎閱讀
原標題:圖領域首個通用框架來了!入選ICLR'24 Spotlight,任意數據集、分類問題都可搞定|來自華盛頓大學&北大&京東
關鍵字:節點,任務,模型,提示,數據
文章來源:量子位
內容字數:5722字
內容摘要:
豐色 發自 凹非寺量子位 | 公眾號 QbitAI能不能有一種通用的圖模型——
它既能夠根據分子結構預測毒性,又能夠給出社交網絡的朋友推薦?
或者既能預測不同作者的論文引用,還可以發現基因網絡中的人類衰老機制?
你還真別說,被ICLR 2024接收為Spotlight的“One for All(OFA)”框架就實現了這個“精髓”。
它由圣路易斯華盛頓大學陳一昕教授團隊、北京大學張牧涵以及京東研究院陶大程等研究者們聯合提出。
作為圖領域首個通用框架,OFA實現了訓練單一GNN模型即可解決圖領域內任意數據集、任意任務類型、任意場景的分類任務。
具體如何實現,以下為作者投稿。
圖領域通用模型設計面臨三大難設計一個通用的基礎模型來解決多種任務是人工智能領域的一個長期目標。近年來,基礎大語言模型(LLMs)在處理自然語言任務方面表現出色。
然而,在圖領域,雖然圖神經網絡(GNNs)在不同的圖數據中都有著不俗的表現,但如何設計與訓練一個能同時處理多種圖任務的基礎圖模型依然前路茫茫。
與自然語言領域相比,圖領域的通用模型設計面臨著許多獨有的困難。
首先,區別于自然語言,不同的圖數據有著截然不同的屬性
原文鏈接:圖領域首個通用框架來了!入選ICLR'24 Spotlight,任意數據集、分類問題都可搞定|來自華盛頓大學&北大&京東
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...