7人創(chuàng)業(yè)、1人投敵!Transformer 八子谷歌坐冷板凳5年再成老黃座上賓
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:7人創(chuàng)業(yè)、1人投敵!Transformer 八子谷歌坐冷板凳5年再成老黃座上賓
關(guān)鍵字:解讀,模型,注意力,團(tuán)隊(duì),神經(jīng)網(wǎng)絡(luò)
文章來源:AI前線
內(nèi)容字?jǐn)?shù):21636字
內(nèi)容摘要:
作者|Steven Levy
譯者|核子可樂
策劃|冬梅
導(dǎo)讀:
3月21日,GTC AI大會(huì),黃仁勛對(duì)話7位Transformer框架論文作者。他們認(rèn)為,AI行業(yè)被困在了六七年前的原型上,這個(gè)世界需要更好的模型。
Transformer 架構(gòu)的誕生源于自然語言處理(NLP)領(lǐng)域的迫切需求。在過去,傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)在處理序列數(shù)據(jù)時(shí)面臨一些挑戰(zhàn)。RNN 雖然能夠捕捉序列中的依賴關(guān)系,但由于其順序處理的方式,導(dǎo)致計(jì)算效率低下,并且難以處理長(zhǎng)距離依賴。而 CNN 雖然可以并行計(jì)算,但在處理變長(zhǎng)序列時(shí)不夠靈活。
為了克服這些挑戰(zhàn),2017 年,谷歌的 8 名研究人員聯(lián)合發(fā)表了名為《你所需要的是注意力》(Attention Is All You Need)的論文,并在這篇論文中提出了 Transformer 架構(gòu),它能真正地解決 RNN 和 CNN 在處理序列數(shù)據(jù)時(shí)存在的問題。
Transformer 采用了自注意力機(jī)制(Self-Attention Mechanism),使得模型能夠同時(shí)關(guān)注序列中的所有位置,從而捕捉長(zhǎng)距離依賴關(guān)系。此外,Transforme
原文鏈接:7人創(chuàng)業(yè)、1人投敵!Transformer 八子谷歌坐冷板凳5年再成老黃座上賓
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。