LLM性能最高60%提升!谷歌ICLR 2024力作:讓大語言模型學會「圖的語言」
AIGC動態(tài)歡迎閱讀
原標題:LLM性能最高60%提升!谷歌ICLR 2024力作:讓大語言模型學會「圖的語言」
關(guān)鍵字:圖形,任務,節(jié)點,問題,文本
文章來源:新智元
內(nèi)容字數(shù):3834字
內(nèi)容摘要:
新智元報道編輯:Mindy
【新智元導讀】圖是組織信息的一種有用方式,但LLMs主要是在常規(guī)文本上訓練的。谷歌團隊找到一種將圖轉(zhuǎn)換為LLMs可以理解的格式的方法,顯著提高LLMs在圖形問題上超過60%的準確性。在計算機科學領域,圖形結(jié)構(gòu)由節(jié)點(代表實體)和邊(表示實體之間的關(guān)系)構(gòu)成。
圖無處不在。
互聯(lián)網(wǎng)本身就像是一張龐大的網(wǎng)絡圖,甚至搜索引擎所使用的知識也是以圖的形式進行組織和呈現(xiàn)。
但由于LLMs主要在常規(guī)文本上訓練,并沒有圖的結(jié)構(gòu),將圖轉(zhuǎn)化為LLMs能理解的文本是一項非常復雜的任務。
在ICLR 2024上,一支來自谷歌的團隊探索了如何將圖形數(shù)據(jù)轉(zhuǎn)換為適合LLMs理解的形式。
論文地址:https://openreview.net/pdf?id=IuXR1CCrSi
使用兩種不同的方法將圖形編碼為文本,并將文本和問題反饋給LLM的過程
他們還創(chuàng)造了一個名為GraphQA的基準,用于研究不同的圖推理問題解決方法,并演示了如何以一種讓LLM能夠解決圖形相關(guān)問題的方式來表述圖相關(guān)問題。
使用正確的方法,使得LLMs在圖形任務上最高得以提升60%的性能。
GraphOA:一場對LLM
原文鏈接:LLM性能最高60%提升!谷歌ICLR 2024力作:讓大語言模型學會「圖的語言」
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀元。重點關(guān)注人工智能、機器人等前沿領域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。