史詩(shī)級(jí)對(duì)話!黃仁勛對(duì)談Transformer八位作者:大模型從何而來(lái),下一步會(huì)如何發(fā)展?
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:史詩(shī)級(jí)對(duì)話!黃仁勛對(duì)談Transformer八位作者:大模型從何而來(lái),下一步會(huì)如何發(fā)展?
關(guān)鍵字:模型,數(shù)據(jù),創(chuàng)始人,公告,可編程
文章來(lái)源:Founder Park
內(nèi)容字?jǐn)?shù):23086字
內(nèi)容摘要:
今年的 GTC,英偉達(dá)創(chuàng)始人黃仁勛和 Transformer 八子的對(duì)談,無(wú)疑是最受關(guān)注的場(chǎng)次之一。因?yàn)槟撤N意義上,雙方正是這波 AI 浪潮的奠基人。
谷歌大腦團(tuán)隊(duì) 2017 年發(fā)表了一篇名為《注意力就是你所需要的一切(Attention is all you need)》的論文,主要目的是解決自然語(yǔ)言處理領(lǐng)域,使用傳統(tǒng)的 RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))模型不能解決并行計(jì)算,從而導(dǎo)致算法效率低下的問(wèn)題。
這篇文章提出的新的處理架構(gòu)就是 Transformer 模型,也是今天大模型的基石,而當(dāng)時(shí)這篇文章的八位聯(lián)名作者今天也被稱為 Transformer 八子。幾年后八子陸續(xù)離開谷歌,今天已經(jīng)成為 Essential AI、Character.AI 等硅谷重要 AI 公司的創(chuàng)始人或技術(shù)核心。
Transformer 八子
Ashish Vaswani,EssentialAI 聯(lián)合創(chuàng)始人兼 CEO
Noam Shazeer,Character.AI 首席執(zhí)行官兼聯(lián)合創(chuàng)始人
Jakob Uszkoreit,Inceptive 聯(lián)合創(chuàng)始人兼首席執(zhí)行官
Llion Jones,SakanaAI 聯(lián)合創(chuàng)始人
原文鏈接:史詩(shī)級(jí)對(duì)話!黃仁勛對(duì)談Transformer八位作者:大模型從何而來(lái),下一步會(huì)如何發(fā)展?
聯(lián)系作者
文章來(lái)源:Founder Park
作者微信:Founder-Park
作者簡(jiǎn)介:來(lái)自極客公園,專注與科技創(chuàng)業(yè)者聊「真問(wèn)題」。