標簽:節點

Zilliz聯手英偉達發布全球首個GPU加速向量數據庫!CUDA加持性能飆升50倍,未來十年或暴漲1000倍

新智元報道編輯:編輯部 【新智元導讀】作為大模型的「記憶體」,向量數據庫重要性不言而喻。GTC 2024上,全球首個GPU加速向量數據庫誕生了,由英偉達CUDA加...
閱讀原文

首次攻克「圖基礎模型」三大難題!港大開源OpenGraph:零樣本學習適配多種下游任

新智元報道編輯:LRS 【新智元導讀】港大發布通用圖基座模型OpenGraph,巧妙從LLM中蒸餾零樣本圖泛化能力。圖學習(Graph Learning)技術能夠對復雜的關系數...
閱讀原文

「圖結構學習」新思路!港大等提出GraphEdit模型:用LLM刪除噪聲邊,全局理解節點間依賴關系

新智元報道編輯:LRS 【新智元導讀】GraphEdit方法可以有效地去除圖網絡中的噪聲連接,還能從全局視角識別節點間的依賴關系,在不同的實驗設置中都被驗證為有...
閱讀原文

解構思維之鏈、樹與圖:我們該如何優化大語言模型的推理能力?

夕小瑤科技說 原創作者 |小戲在浩浩蕩蕩的生物進化史中,人類的祖先“幸運”的抽中了一張名為“智能”的彩票。智能的出現讓人類擁有了思考的權力,而思維的思考所...
閱讀原文

普林斯頓DeepMind用數學證明:LLM不是隨機鸚鵡!「規模越大能力越強」有理論根據

新智元報道編輯:拉燕 【新智元導讀】普林斯頓大學和DeepMind的科學家用嚴謹的數學方法證明了大語言模型不是隨機鸚鵡,規模越大能力一定越大。今天故事的主角...
閱讀原文

圖領域首個通用框架來了!入選ICLR'24 Spotlight,任意數據集、分類問題都可搞定|來自華盛頓大學&北大&京東

豐色 發自 凹非寺量子位 | 公眾號 QbitAI能不能有一種通用的圖模型—— 它既能夠根據分子結構預測毒性,又能夠給出社交網絡的朋友推薦? 或者既能預測不同作者...
閱讀原文

云原生數據庫 GaiaDB 架構設計解析:高性能、多級高可用

百度智能云團隊在今年 11-12 月特別推出了四期《百度智能云數據庫》系列云智公開課,為大家全面地介紹了以云原生數據庫 GaiaDB 和分布式數據庫 GaiaDB-X 為代...
閱讀原文

高性能和多級高可用,云原生數據庫 GaiaDB 架構設計解析

PPT 下載方式詳見文末。1 云原生數據庫和 GaiaDB目前,云原生數據庫已經被各行各業大規模投入到實際生產中,最終的目標都是「單機 + 分布式一體化」。但在演...
閱讀原文

仿人腦神經開發AI!劍橋大學最新研究登Nature子刊,人造大腦成AI新方向

新智元報道編輯:拉燕潤【新智元導讀】劍橋大學最新研究顯示,AI模型和人腦神經結構有不少相似,也許未來會成為AI模型設計的關鍵。人腦作為地球上最復雜的智...
閱讀原文

復旦團隊提出思維交流框架EoT,由CoT到EoT,可跨模型通信,表現更出色

夕小瑤科技說 原創作者 | 智商掉了一地、python大型語言模型(LLM)通過利用龐大的訓練語料和強大的計算資源,在眾多 NLP 任務中表現卓越。然而,在理解和進...
閱讀原文

「對齊」太強是壞事?人大最新研究:完美正樣本反而會損害「圖對比學習」

新智元報道編輯:LRS【新智元導讀】人民大學最新研究指出,更好的數據增強雖然可以提升其在下游任務的泛化能力,但也會減弱對比學習的上游性能。近年來,由于...
閱讀原文

最強大模型訓練芯片H200發布!141G大內存,AI推理最高提升90%,還兼容H100

夢晨 克雷西 發自 凹非寺量子位 | 公眾號 QbitAI英偉達老黃,帶著新一代GPU芯片H200再次炸場。官網毫不客氣就直說了,“世界最強GPU,專為AI和超算打造”。聽說...
閱讀原文

圖神經網絡研究綜述(GNN)

大數據文摘受權轉載自算法進階圖神經網絡由于其在處理非歐空間數據和復雜特征方面的優勢,受到廣泛關注并應用于推薦系統、知識圖譜、交通道路分析等場景。大...
閱讀原文

一個小妙招從Prompt菜鳥秒變專家!加州大學提出PromptAgent,幫你高效使用ChatGPT!

夕小瑤科技說 原創作者 | 謝年年、王二狗有了ChatGPT、GPT4之后,我們的工作學習效率得到大大提升(特別在湊字數方面?(???????)?)。作為一個工具,有人覺得...
閱讀原文

【緬懷】6億人的“二八定律 ”

引“6億人”后面的真相不止有盛世繁華,還有殘垣頹瓦;不止有北上深廣的四通八達,還有阡陌不通的邊緣小鎮;不止有年賺千萬的娛樂明星,還有更多失業在家的啃老...
閱讀原文
13456