AIGC動態歡迎閱讀
原標題:視覺模型底座超越OpenAI,格靈深瞳開啟多模態落地的Scaling Law
關鍵字:模型,視覺,數據,圖像,場景
文章來源:量子位
內容字數:0字
內容摘要:
夢晨 發自 凹非寺量子位 | 公眾號 QbitAI大模型時代,有個大家普遍焦慮的問題:如何落地?往哪落地?
聚光燈下最耀眼的OpenAI,最近也先被曝出資金告急,后又尋求新一輪10億美元新融資。
但在中國,有這么一家公司:
它的多模態大模型不僅在多個權威數據集上的表現超過了OpenAI,更是用一個個落地案例告訴大家,大模型并不僅僅包括大語言模型,視覺大模型和多模態大模型在產業界有更大的想象空間。
這家公司就是格靈深瞳,它曾因“A股AI視覺第一股”的標簽為人熟知,如今以新姿態再次刷新外界認知:大模型落地先行者。
銀行安防領域,AI算法規模化應用,落地10000+銀行網點
城市管理領域,交通治理業務在10余個省市開展試點及落地應用
商業零售領域,智慧案場解決方案落地全國20余省市近1000個項目
體育教育領域,相關產品方案已在全國多個校園試點應用,為100000+名在校師生提供日常教學支持與考試服務
……
取得這樣的成績背后,離不開格靈深瞳在大模型技術層面取得的進展:
自研視覺大模型Unicom v2,在多業務數據集上平均優于OpenAI的CLIP、Meta的DINOv2和蘋果的DFN
基
原文鏈接:視覺模型底座超越OpenAI,格靈深瞳開啟多模態落地的Scaling Law
聯系作者
文章來源:量子位
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...