AIGC動態歡迎閱讀
原標題:縱覽機器學習前生今世,萬字整理谷歌首席科學家 Jeff Dean 一小時演講
關鍵字:模型,機器,圖像,領域,解讀
文章來源:人工智能學家
內容字數:25269字
內容摘要:
經過算法的改進和機器學習專用硬件的顯著提升,我們現在能夠構建比以往任何時候都更為強大的通用機器學習系統。演講者| Jeff Dean
整理 |王啟隆
自從 2017 年谷歌發表了題為 “Attention is All You Need” 的重磅論文,其中提出的“自注意力”這一性的概念成為 Transformer 模型的核心部分,引領了我們目前正在經歷的 AIGC 。
然而,當前的大模型領域似乎并不是姓“谷”的,反倒是有種微軟一手遮天,谷歌和其他公司在后追趕的感覺。
為什么現在會出現這種“逆轉”的情況呢?谷歌現在都做了些什么工作?為了解答這個問題,谷歌首席科學家 Jeff Dean 于2 月13 日在美國萊斯大學進行了一場 1 小時 12 分鐘的公開演講,突出展示人工智能和機器學習領域中幾個令人振奮的趨勢,并介紹了谷歌在人工智能時代的過去、現在與未來所做的工作,還概述了大家都很感興趣的 Gemini 系列多模態模型。
這場演講的時間很有意思,因為谷歌隨后在 2 月 15 日發布了 Gemini 1.5,然后在同一天被 OpenAI 的 Sora “背刺”了一手,搶盡風頭。
要弄
原文鏈接:縱覽機器學習前生今世,萬字整理谷歌首席科學家 Jeff Dean 一小時演講
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...