AIGC動態歡迎閱讀
原標題:零一萬物發布Yi-VL多模態語言模型并開源,測評僅次于GPT-4V
關鍵字:模型,解讀,圖像,語言,數據
文章來源:AI前線
內容字數:4498字
內容摘要:
作者 | 褚杏娟
1 月 22 日,零一萬物發布 Yi Vision Language(Yi-VL)多模態語言大模型,并正式面向全球開源。Yi-VL 模型基于 Yi 語言模型開發,包括 Yi-VL-34B 和 Yi-VL-6B 兩個版本。測評:僅次于 GPT-4V根據零一萬物消息,Yi-VL 模型在英文數據集 MMMU 和中文數據集 CMMMU 上取得了領先成績,在處理復雜跨學科任務上有很好表現。
MMMU(全名 Massive Multi-discipline Multi-modal Understanding & Reasoning 大規模多學科多模態理解和推理)數據集包含了 11500 個來自六大核心學科(藝術與設計、商業、科學、健康與醫學、人文與社會科學以及技術與工程)的問題,涉及高度異構圖像類型和交織文本圖像信息,對模型的高級知覺和推理能力提出了極高要求。
Yi-VL-34B 在該測試集上以 41.6% 的準確率超越了一系列多模態大模型,僅次于 GPT-4V(55.7%)。來源:https://mmmu-benchmark.github.io
同樣,在針對中文場景打造的 CM
原文鏈接:零一萬物發布Yi-VL多模態語言模型并開源,測評僅次于GPT-4V
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供AI領域技術資訊、一線業界實踐案例、搜羅整理業界技術分享干貨、AI論文解讀。每周一節技術分享公開課,助力你全面擁抱人工智能技術。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...