OpenAI官宣開源Transformer Debugger!不用寫代碼,人人可以LLM黑箱
AIGC動態(tài)歡迎閱讀
原標題:OpenAI官宣開源Transformer Debugger!不用寫代碼,人人可以LLM黑箱
關鍵字:神經(jīng)元,模型,編碼器,研究人員,解釋性
文章來源:新智元
內(nèi)容字數(shù):6806字
內(nèi)容摘要:
新智元報道編輯:編輯部
【新智元導讀】剛剛,OpenAI超級對齊團隊負責人官宣開源Transformer調(diào)試器。研究人員不用寫代碼,就能快速探索LLM的內(nèi)部構(gòu)造了!AGI真的越來越近了!
為了確保人類不被AI,在解密神經(jīng)網(wǎng)絡/Transfomer黑箱這一方面,OpenAI從未停下腳步。
去年5月,OpenAI團隊發(fā)布了一個令人震驚的發(fā)現(xiàn):GPT-4竟可以解釋GPT-2的三十萬神經(jīng)元!
網(wǎng)友紛紛驚呼,智慧原來是這個樣子。
而就在剛剛,OpenAI超級對齊團隊負責人又正式官宣,要開源內(nèi)部一直使用的大殺器——Transformer調(diào)試器(Transformer Debugger)。
簡之,研究者可以用TDB工具分析Transformer的內(nèi)部結(jié)構(gòu),從而對小模型的特定行為進行調(diào)查。
也就是說,有了這個TDB工具,未來它就可以幫我們剖析和分析AGI了!
Transformer調(diào)試器將稀疏自動編碼器,與OpenAI開發(fā)的「自動可解釋性」——即用大模型自動解釋小模型,技術相結(jié)合。
鏈接:OpenAI炸裂新作:GPT-4GPT-2大腦!30萬神經(jīng)元全被看透
論文地址:https://open
原文鏈接:OpenAI官宣開源Transformer Debugger!不用寫代碼,人人可以LLM黑箱
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發(fā)展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。