AIGC動態歡迎閱讀
原標題:Meta首發「變色龍」挑戰GPT-4o,34B參數引領多模態!10萬億token訓練刷新SOTA
關鍵字:模型,圖像,報告,文本,數據
文章來源:新智元
內容字數:8186字
內容摘要:
新智元報道編輯:桃子喬楊
【新智元導讀】GPT-4o發布不到一周,首個敢于挑戰王者的新模型誕生!最近,Meta團隊發布了「混合模態」Chameleon,可以在單一神經網絡無縫處理文本和圖像。10萬億token訓練的34B參數模型性能接近GPT-4V,刷新SOTA。GPT-4o的橫空出世,再次創立了一個多模態模型發展的新范式!
為什么這么說?
OpenAI將其稱為「首個『原生』多模態」模型,意味著GPT-4o與以往所有的模型,都不盡相同。
傳統的多模態基礎模型,通常為每種模態采用特定的「編碼器」或「解碼器」,將不同的模態分離開。
然而,這種方法限制了模型,有效融合跨模態信息的能力。
官博介紹,GPT-4o是「首個端到端」訓練的,跨越文本、視覺和音頻的模型,所有的輸入和輸出,都由單個神經網絡處理。
而現在,業界首個敢于挑戰GPT-4o的模型現身了!
最近,來自Meta團隊的研究人員發布了「混合模態基座模型」——Chameleon(變色龍)。
論文地址:https://arxiv.org/pdf/2405.09818
與GPT-4o一樣,Chameleon采用了統一的Transformer
原文鏈接:Meta首發「變色龍」挑戰GPT-4o,34B參數引領多模態!10萬億token訓練刷新SOTA
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...