AIGC動態歡迎閱讀
原標題:多模態LLM多到看不過來?先看這26個SOTA模型吧
關鍵字:報告,模型,騰訊,指令,任務
文章來源:機器之心
內容字數:11466字
內容摘要:
機器之心報道
機器之心編輯部多模態大型語言模型進展如何?盤點 26 個當前最佳多模態大型語言模型。當前 AI 領域的關注重心正從大型語言模型(LLM)向多模態轉移,于是乎,讓 LLM 具備多模態能力的多模態大型語言模型(MM-LLM)就成了一個備受關注的研究主題。
近日,騰訊 AI Lab、京都大學和穆罕默德?本?扎耶德人工智能大學的一個研究團隊發布了一份綜述報告,全面梳理了 MM-LLM 的近期進展。文中不僅總結了 MM-LLM 的模型架構和訓練流程,而且還梳理了 26 個當前最佳的 MM-LLM。如果你正考慮研究或使用 MM-LLM,不妨考慮從這份報告開始研究,找到最符合你需求的模型。論文標題:MM-LLMs: Recent Advances in MultiModal Large Language Models
論文地址:https://arxiv.org/abs/2401.13601
報告概覽
近些年來,多模態(MM)預訓練研究進展迅速,讓許多下游任務的性能不斷突破到新的邊界。但是,隨著模型和數據集規模不斷擴大,傳統多模態模型也遭遇了計算成本過高的問題,尤其是當從頭開始訓練時。
原文鏈接:多模態LLM多到看不過來?先看這26個SOTA模型吧
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...