AIGC動態歡迎閱讀
原標題:今日arXiv最熱NLP大模型論文:微軟發布:大模型時代的可解釋機器學習,現狀與挑戰
關鍵字:數據,模型,解釋性,自然語言,方法
文章來源:夕小瑤科技說
內容字數:12232字
內容摘要:
夕小瑤科技說 原創作者 | 謝年年、Python自深度學習開啟了人工智能的黑盒模式,模型的可解釋性一直都是專家學者討論研究的重點。
為什么可解釋性問題這么重要?
舉一個簡單的例子:讓模型給出一個未來房價的預測,如果使用深度學習,則會使用一連串的非線性函數的疊加公式得到一個預測結果。但這對人類來說是難以理解的,數學公式或者是一堆向量特征難以定義結果的可信賴性。
特別是大語言模型雖然在各種復雜的NLP任務中展現出驚艷的效果,但我們對“為什么大模型有如此強大的能力”這一問題仍處于初步探索階段。數據量與模型參數量暴增的LLMs似乎讓我們離可解釋性越來越遠。
當然,LLMs帶來的不僅僅是挑戰,或許也是一場關于可解釋性學習技術的變革,或者說新思路。
今天介紹的這篇文章來自微軟,認為LLM提供了重新思考可解釋性的機會。LLM可直接自然語言與人類進行交流,這提供了比深度學更加詳盡的解釋。
比如,用戶可以直接對LLM發問:“你能解釋一下你的邏輯嗎?”,“為什么你的回答不是(A)?”,或者“給我解釋一下這個數據”, 并獲得即時、相關的回答。
因此結合數據相關的落地和處理技術,LLM能夠以易理解的文本
原文鏈接:今日arXiv最熱NLP大模型論文:微軟發布:大模型時代的可解釋機器學習,現狀與挑戰
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI一線開發者、互聯網中高管和機構投資人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼備行業嗅覺與報道深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...