transformer的細(xì)節(jié)到底是怎么樣的?Transformer 連環(huán)18問!

AIGC動態(tài)歡迎閱讀
原標(biāo)題:transformer的細(xì)節(jié)到底是怎么樣的?Transformer 連環(huán)18問!
關(guān)鍵字:報(bào)告,知識產(chǎn)權(quán),人工智能,特征,方式
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
來源:
https://www.zhihu.com/question/362131975/answer/3058958207
作者:愛問問題的王宸@知乎(已授權(quán))
編輯:極市平臺
為什么想通過十八個問題的方式總結(jié)Transformer?
有兩點(diǎn)原因:
第一,Transformer是既MLP、RNN、CNN之后的第四大特征提取器,也被稱為第四大基礎(chǔ)模型;最近爆火的chatGPT,其最底層原理也是Transformer,Transformer的重要性可見一斑。
第二,希望通過問問題這種方式,更好的幫助大家理解Transformer的內(nèi)容和原理。
1.2017年深度學(xué)習(xí)領(lǐng)域的重大突破是什么?Transformer。有兩方面的原因:
1.1 一方面,Transformer是深度學(xué)習(xí)領(lǐng)域既MLP、RNN、CNN之后的第4大特征提取器(也被稱為基礎(chǔ)模型)。什么是特征提取器?大腦是人與外部世界(圖像、文字、語音等)交互的方式;特征提取器是計(jì)算機(jī)為了模仿大腦,與外部世界(圖像、文字、語音等)交互的方式,如圖1所示。舉例而言:Imagenet數(shù)據(jù)集中包含1000類圖像,人們已經(jīng)根據(jù)自己的經(jīng)驗(yàn)把這一百萬張
原文鏈接:transformer的細(xì)節(jié)到底是怎么樣的?Transformer 連環(huán)18問!
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號