AIGC動態歡迎閱讀
原標題:離職谷歌的Transformer作者創業,3個模型(附技術報告)
關鍵字:模型,報告,日語,方法,研究者
文章來源:機器之心
內容字數:5586字
內容摘要:
機器之心報道
編輯:陳萍、小舟去年 8 月,兩位著名的前谷歌研究人員 David Ha、Llion Jones 宣布創立一家人工智能公司 Sakana AI,總部位于日本東京。其中,Llion Jones 是谷歌 2017 年經典研究論文《Attention is all you need》的第五作者,該論文提出了深度學習架構 transformer。transformer 對整個機器學習領域產生了重要影響,并且是 ChatGPT 等生成式 AI 模型的基礎。論文于 2017 年 6 月首次發表后,隨著全球對生工智能人才競爭不斷升溫,論文作者陸續離開谷歌,自立門戶創業。Llion Jones 是八位作者中最后一個退出谷歌的人。
David Ha、Llion Jones 成立的初創公司 Sakana AI 致力于構建生成式 AI 模型。最近,Sakana AI 宣布推出一種通用方法 ——Evolutionary Model Merge。該方法使用進化算法來有效地發現組合不同開源模型的最佳方法,這些開源模型具有不同功能。Evolutionary Model Merge 方法能夠自動創建
原文鏈接:離職谷歌的Transformer作者創業,3個模型(附技術報告)
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...