史詩級對話!黃仁勛對談Transformer八位作者:大模型從何而來,下一步會如何發展?
AIGC動態歡迎閱讀
原標題:史詩級對話!黃仁勛對談Transformer八位作者:大模型從何而來,下一步會如何發展?
關鍵字:模型,數據,創始人,公告,可編程
文章來源:Founder Park
內容字數:23086字
內容摘要:
今年的 GTC,英偉達創始人黃仁勛和 Transformer 八子的對談,無疑是最受關注的場次之一。因為某種意義上,雙方正是這波 AI 浪潮的奠基人。
谷歌大腦團隊 2017 年發表了一篇名為《注意力就是你所需要的一切(Attention is all you need)》的論文,主要目的是解決自然語言處理領域,使用傳統的 RNN(循環神經網絡)模型不能解決并行計算,從而導致算法效率低下的問題。
這篇文章提出的新的處理架構就是 Transformer 模型,也是今天大模型的基石,而當時這篇文章的八位聯名作者今天也被稱為 Transformer 八子。幾年后八子陸續離開谷歌,今天已經成為 Essential AI、Character.AI 等硅谷重要 AI 公司的創始人或技術核心。
Transformer 八子
Ashish Vaswani,EssentialAI 聯合創始人兼 CEO
Noam Shazeer,Character.AI 首席執行官兼聯合創始人
Jakob Uszkoreit,Inceptive 聯合創始人兼首席執行官
Llion Jones,SakanaAI 聯合創始人
原文鏈接:史詩級對話!黃仁勛對談Transformer八位作者:大模型從何而來,下一步會如何發展?
聯系作者
文章來源:Founder Park
作者微信:Founder-Park
作者簡介:來自極客公園,專注與科技創業者聊「真問題」。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...