AIGC動態歡迎閱讀
原標題:拿下SOTA!最強中文Embedding模型對標OpenAI,技術路線公開
關鍵字:模型,商湯,任務,向量,維度
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:編輯部
【新智元導讀】國產大模型「日日新 5.0」已經在權威主流評測中鯊瘋了。變強的背后原因竟是,來自商湯自研中文Embedding模型——Piccolo2。這是首個對標OpenAI向量長度的模型。國產大模型最近在權威主流評測中「殺」瘋了!
商湯「日日新 5.0」在中文大模型測評基準SuperCLUE中,成為首個超越GPT-4 Turbo的國產大模型;在OpenCompass的基準表現中,客觀評測超過GPT-4 Turbo,主觀評測已超過GPT-4o位列第一。
這次「又雙叒叕變強」背后是算法、算力、數據的全面「buff」疊加,其中最重要的技術之一、也是解決LLM幻覺問題的關鍵——商湯自研的通用Embedding模型Piccolo2。
Piccolo2日前已突破SOTA,在由北京智源研究院發布的中文語義向量評測基準C-MTEB評測中名列第一,這是當前最大規模、最為全面的中文語義向量表征能力評測基準,包含分類、聚類、句對分類、重排、檢索和句子相似度六大類評測任務和31個數據集。
如今,商湯公開了技術路線。
Piccolo2目前支持512/2K/8K三種向量長度,其中8K模
原文鏈接:拿下SOTA!最強中文Embedding模型對標OpenAI,技術路線公開
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...