AIGC動態歡迎閱讀
原標題:黃仁勛對話 Transformer 八子:大模型的起源、現在和未來
關鍵字:解讀,模型,創始人,數據,公告
文章來源:AI前線
內容字數:25477字
內容摘要:
作者 | 鄭玥
編輯 | 鄭玄
隨著新一波 AI 浪潮席卷而來,英偉達突破 2 萬億美元市值成為最炙手可熱的科技公司,今年 GTC 大會儼然成為年度最受關注的科技行業盛會。
四天的數百場主題分享中,英偉達創始人黃仁勛和 Transformer 八子的對談,無疑是最受關注的場次之一。因為某種意義上,雙方正是這波 AI 浪潮的奠基人。
谷歌大腦團隊 2017 年發表了一篇名為《注意力就是你所需要的一切(Attention is all you need)》的論文,主要目的是解決自然語言處理領域,使用傳統的 RNN(循環神經網絡)模型不能解決并行計算,從而導致算法效率低下的問題。
這篇文章提出的新的處理架構就是 Transformer 模型,也是今天大模型的基石,而當時這篇文章的八位聯名作者今天也被稱為 Transformer 八子。幾年后八子陸續離開谷歌,今天已經成為 Essential AI、Character.AI 等硅谷重要 AI 公司的創始人或技術核心。
Transformer 八子
·Ashish Vaswani,EssentialAI 聯合創始人兼 CEO
·Noam Shaz
原文鏈接:黃仁勛對話 Transformer 八子:大模型的起源、現在和未來
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...