PRO | 多模態(tài)趨勢(shì)下,Transformer并非主流架構(gòu)唯一解

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:PRO | 多模態(tài)趨勢(shì)下,Transformer并非主流架構(gòu)唯一解
關(guān)鍵字:解讀,騰訊,模型,卷積,架構(gòu)
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):4977字
內(nèi)容摘要:
2023年,幾乎 AI 的每個(gè)領(lǐng)域都在以前所未有的速度進(jìn)化,同時(shí),AI也在不斷地推動(dòng)著具身智能、自動(dòng)駕駛等關(guān)鍵賽道的技術(shù)邊界。
多模態(tài)趨勢(shì)下,Transformer 作為 AI 大模型主流架構(gòu)的局面是否會(huì)撼動(dòng)?為何探索基于 MoE (專家混合)架構(gòu)的大模型成為業(yè)內(nèi)新趨勢(shì)?大型視覺(jué)模型(LVM)能否成為通用視覺(jué)的新突破?…
我們從過(guò)去的半年發(fā)布的2023年機(jī)器之心PRO會(huì)員通訊中,挑選了 10份針對(duì)以上領(lǐng)域技術(shù)趨勢(shì)、產(chǎn)業(yè)變革進(jìn)行深入剖析的專題解讀,助您在新的一年里為大展宏圖做好準(zhǔn)備。
本篇解讀來(lái)自2023年Week52業(yè)內(nèi)通訊?
專題解讀多模態(tài)趨勢(shì)下,Transformer 并非主流架構(gòu)唯一解
日期:12月24日
:騰訊AI實(shí)驗(yàn)室與港中文聯(lián)合團(tuán)隊(duì)提出了新CNN架構(gòu)「UniRepLKNet」,在圖像識(shí)別精度和速度上都超過(guò)了Transformer架構(gòu)模型。
要點(diǎn)速覽
1、UniRepLKNet的設(shè)計(jì)遵循了四條guideline,包括使用大卷積核來(lái)保證大感受野,使用depthwise小卷積來(lái)提高特征抽象層次,以及使用高效結(jié)構(gòu)來(lái)增強(qiáng)模型的深度和表示能力。
2、UniRepLKNet的每
原文鏈接:PRO | 多模態(tài)趨勢(shì)下,Transformer并非主流架構(gòu)唯一解
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)

粵公網(wǎng)安備 44011502001135號(hào)