標簽:解釋性

帕金森早期診斷準確率提高至90.2%,深圳先進院聯合中山一院提出GSP-GCNs模型

大數據文摘授權轉載自HyperAI超神經 作者:彬彬 編輯:李寶珠,三羊 震顫、動作遲緩、表情僵硬……提起帕金森病,多數人會率先想到「手抖」,殊不知,在患病中...
閱讀原文

帕金森早期診斷準確率提高至 90.2%,深圳先進院聯合中山一院提出 GSP-GCNs 模型

作者:彬彬 編輯:李寶珠,三羊 中山大學附屬第一醫院&中科大先進院等研究團隊,提出了一種深度學習模型——圖信號處理-圖卷積網絡 (GSP-GCNs),利用從涉及...
閱讀原文

用多模態LLM做自動駕駛決策器,可解釋性有了!比純端到端更擅長處理特殊場景,來自商湯

豐色 曹原 發自 凹非寺量子位 | 公眾號 QbitAI用多模態大模型做自動駕駛的決策器,效果居然這么好? 來自商湯的最新自動駕駛大模型DriveMLM,直接在閉環測試...
閱讀原文

OpenAI最強競品訓練AI拆解LLM黑箱,意外窺見大模型「靈魂」

新智元報道編輯:潤【新智元導讀】Anthropic的模型可解釋性團隊,從大模型中看到了它的「靈魂」——一個可解釋的更高級的模型。為了拆開大模型的「黑箱」,Anth...
閱讀原文

山東大學開發可解釋深度學習算法 RetroExplainer,4 步識別有機物的逆合成路線

點擊上方藍字,關注我們!By 超神經逆合成旨在找到一系列合適的反應物,以高效合成目標產物。這是解決有機合成路線的重要方法,也是有機合成路線設計的最簡單...
閱讀原文

打破大模型黑盒,徹底分解神經元!OpenAI對頭Anthropic擊破AI不可解釋性障礙

新智元報道編輯:Lumina【新智元導讀】距離破解大模型「黑箱」難題又近了一步!近日,來自Anthropic的研究團隊通過采用稀疏自動編碼器的弱字典學習算法,從51...
閱讀原文

深度學習可解釋性新進展!Claude團隊利用字典學習分解大模型神經元

夕小瑤科技說 分享來源 | 量子位作者 | 豐色神經網絡的不可解釋性,一直是AI領域的“老大難”問題。但現在,我們似乎取得了一絲進展——ChatGPT最強競對Claude背...
閱讀原文

分解大模型的神經元!Claude團隊最新研究火了,網友:打開黑盒

豐色 發自 凹非寺量子位 | 公眾號 QbitAI神經網絡的不可解釋性,一直是AI領域的“老大難”問題。但現在,我們似乎取得了一絲進展——ChatGPT最強競對Claude背后的...
閱讀原文

76頁綜述+300余篇參考文獻,天大團隊全面介紹大語言模型對齊技術

機器之心專欄作者:熊德意教授團隊天大自然語言處理團隊從更廣泛的 AI 對齊視角,審視大語言模型對齊技術,并從多個角度進行深入討論。近日,天津大學熊德意...
閱讀原文

一文捋清大模型可解釋性,中美多家研究機構聯合發布綜述

夕小瑤科技說 分享來源 | 機器之心大規模語言模型在自然語言處理方面展現出令人驚訝的推理能力,但其內在機理尚不清晰。隨著大規模語言模型的廣泛應用,闡明...
閱讀原文

大模型可解釋性你能理得清嗎?綜述已來,一文解你疑惑

機器之心專欄機器之心編輯部大規模語言模型在自然語言處理方面展現出令人驚訝的推理能力,但其內在機理尚不清晰。隨著大規模語言模型的廣泛應用,闡明模型的...
閱讀原文

大模型如何可解釋?新澤西理工學院等最新《大型語言模型可解釋性》綜述

來源:專知大型語言模型(LLMs)在自然語言處理方面展示了令人印象深刻的能力。然而,它們的內部機制仍然不清楚,這種不透明性對下游應用帶來了不希望的風險...
閱讀原文

詳解OpenAI 首席科學家最重要的工作,他為什么要實現超級對齊?

OpenAI于今年7月首次提出超級對齊的概念,并宣布投入20%的計算資源,花費4年的時間全力打造一個超級對齊(Superalignment)系統,意在解決超級智能的對齊問題...
閱讀原文
12