AIGC動態歡迎閱讀
原標題:阿里mPLUG-Owl新升級,魚與熊掌兼得,模態協同實現MLLM新SOTA
關鍵字:模型,視覺,性能,語言,文本
文章來源:機器之心
內容字數:4601字
內容摘要:
機器之心專欄
機器之心編輯部OpenAI GPT-4V 和 Google Gemini 都展現了非常強的多模態理解能力,推動了多模態大模型(MLLM)快速發展,MLLM 成為了現在業界最熱的研究方向。
MLLM在多種視覺-語言開放任務中取得了出色的指令跟隨能力。盡管以往多模態學習的研究表明不同模態之間能夠相互協同和促進,但是現有的 MLLM 的研究主要關注提升多模態任務的能力,如何平衡模態協作的收益與模態干擾的影響仍然是一個亟待解決的重要問題。論文地址:https://arxiv.org/pdf/2311.04257.pdf
代碼地址:https://github.com/X-PLUG/mPLUG-Owl/tree/main/mPLUG-Owl2
ModelScope 體驗地址:https://modelscope.cn/studios/damo/mPLUG-Owl2/summary
HuggingFace 體驗地址:https://huggingface.co/spaces/MAGAer13/mPLUG-Owl2
針對這一問題,阿里多模態大模型 mPLUG-Owl 迎來大升級,通過模
原文鏈接:阿里mPLUG-Owl新升級,魚與熊掌兼得,模態協同實現MLLM新SOTA
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...