谷歌又發(fā)大招:首款自研 Arm CPU、Gemini 1.5 Pro 公測(cè)、Imagen 2.0 對(duì)決 Sora
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:谷歌又發(fā)大招:首款自研 Arm CPU、Gemini 1.5 Pro 公測(cè)、Imagen 2.0 對(duì)決 Sora
關(guān)鍵字:模型,代碼,數(shù)據(jù),功能,性能
文章來源:Founder Park
內(nèi)容字?jǐn)?shù):10933字
內(nèi)容摘要:
4月9日,在 Google Cloud Next 2024大會(huì)上,谷歌發(fā)布了一系列模型、硬件產(chǎn)品:
Gemini 1.5 Pro 加入本地音頻理解功能,同時(shí)開放公測(cè)
升級(jí)「視頻版」Imagen 2.0,下場(chǎng) AI 視頻模型大混戰(zhàn)
首款自研 Arm 處理器 Axion
代碼生成新模型 CodeGemma
此外,谷歌的AI超算平臺(tái)也進(jìn)行了一系列重大升級(jí)——最強(qiáng)TPU v5p上線、升級(jí)軟件存儲(chǔ),以及更靈活的消費(fèi)模式,都讓谷歌云在AI領(lǐng)域的競(jìng)爭(zhēng)力進(jìn)一步提升。
Scaling Law 已成為大模型進(jìn)化的「不二法門」。
大模型參數(shù)量越大、數(shù)據(jù)集規(guī)模越大、算力消耗越大,性能就越好。性能越好,越受歡迎,業(yè)務(wù)拓展與運(yùn)營(yíng)的成本就越高。
相比較海外的大模型大廠,國(guó)內(nèi)的大模型公司會(huì)面臨更嚴(yán)峻的算力問題,資金問題、顯卡限購(gòu)的問題,以至于有不少人質(zhì)疑,中國(guó)大模型到底有沒有 Scaling Law?
今晚 8 點(diǎn),無(wú)問芯穹聯(lián)合創(chuàng)始人 & CEO 夏立雪將做客 Founder Park 視頻號(hào)直播間,與極客公園創(chuàng)始人 & 總裁張鵬聊聊中國(guó)大模型的 Scaling Law 難題。01
Gemini 1.5 Pro:原生
原文鏈接:谷歌又發(fā)大招:首款自研 Arm CPU、Gemini 1.5 Pro 公測(cè)、Imagen 2.0 對(duì)決 Sora
聯(lián)系作者
文章來源:Founder Park
作者微信:Founder-Park
作者簡(jiǎn)介:來自極客公園,專注與科技創(chuàng)業(yè)者聊「真問題」。