清華系多模態(tài)大模型公司剛剛?cè)诹藬?shù)億元!放話“今年達(dá)到Sora效果”
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:清華系多模態(tài)大模型公司剛剛?cè)诹藬?shù)億元!放話“今年達(dá)到Sora效果”
關(guān)鍵字:騰訊,模型,架構(gòu),團(tuán)隊(duì),方面
文章來源:量子位
內(nèi)容字?jǐn)?shù):4733字
內(nèi)容摘要:
衡宇 發(fā)自 凹非寺量子位 | 公眾號 QbitAI清華系多模態(tài)大模型公司,又拿錢了!
生數(shù)科技,師出清華朱軍團(tuán)隊(duì),是國內(nèi)最早布局多模態(tài)大模型的團(tuán)隊(duì)之一。
市場消息傳來,這家公司剛剛完成新一輪數(shù)億元融資。本輪融資由啟明創(chuàng)投領(lǐng)投,達(dá)泰資本、鴻福厚德、智譜AI、老股東BV百度風(fēng)投和卓源亞洲繼續(xù)跟投。
生數(shù)方面的說法是,本輪融資將主要用于多模態(tài)基礎(chǔ)大模型的迭代研發(fā)、應(yīng)用產(chǎn)品創(chuàng)新及市場拓展。
此前,生數(shù)已經(jīng)在文生圖、文生3D模型、文生視頻方面都有研究成果對外釋出。
2022年9月,生數(shù)科技創(chuàng)始成員就提出了基于Transformer的網(wǎng)絡(luò)架構(gòu)U-ViT,這與Sora和Stable Diffusion3背后采用的Diffusion Transformer架構(gòu)DiT,在架構(gòu)思路與實(shí)驗(yàn)路徑上完全一致。
對此,生數(shù)科技CEO唐家渝表示:
我們積累了完整高效的工程化經(jīng)驗(yàn),擁有在大規(guī)模GPU集群上實(shí)現(xiàn)高效兼容、低成本的模型訓(xùn)練經(jīng)驗(yàn),整體上來講,我們追趕Sora肯定比追趕GPT-4輕松很多。
今年一定能達(dá)到Sora目前版本的效果,很難說是三個(gè)月還是半年(笑),但這件事我們的信心還是非常足的。
2022年已提出類
原文鏈接:清華系多模態(tài)大模型公司剛剛?cè)诹藬?shù)億元!放話“今年達(dá)到Sora效果”
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破