多語(yǔ)言大模型新SOTA!Cohere最新開(kāi)源Aya-23:支持23種語(yǔ)言,8B/35B可選

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:多語(yǔ)言大模型新SOTA!Cohere最新開(kāi)源Aya-23:支持23種語(yǔ)言,8B/35B可選
關(guān)鍵字:模型,語(yǔ)言,數(shù)據(jù),任務(wù),英語(yǔ)
文章來(lái)源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報(bào)道編輯:LRS
【新智元導(dǎo)讀】Aya23在模型性能和語(yǔ)言種類覆蓋度上達(dá)到了平衡,其中最大的35B參數(shù)量模型在所有評(píng)估任務(wù)和涵蓋的語(yǔ)言中取得了最好成績(jī)。雖然LLM在過(guò)去幾年中蓬勃發(fā)展,但該領(lǐng)域的大部分工作都是以英語(yǔ)為中心的,也就是說(shuō),雖然模型的能力很強(qiáng),但也僅限于英語(yǔ)、漢語(yǔ)等使用人數(shù)多的語(yǔ)言,在處理資源匱乏的語(yǔ)言時(shí)往往性能不佳。
想要破局多語(yǔ)言,兩個(gè)關(guān)鍵在于強(qiáng)大的多語(yǔ)言預(yù)訓(xùn)練模型以及足量的、涵蓋多種語(yǔ)言的指令訓(xùn)練數(shù)據(jù)。
為了解決上述問(wèn)題,最近,加拿大的獨(dú)角獸AI公司Cohere開(kāi)源了兩種尺寸(8B和35B)的多語(yǔ)言模型Aya23,其中Aya-23-35B在所有評(píng)估任務(wù)和涵蓋的語(yǔ)言中取得了最好成績(jī)。論文鏈接:
https://cohere.com/research/papers/aya-command-23-8b-and-35b-technical-report-2024-05-23
Aya-23-8B: https://huggingface.co/CohereForAI/aya-23-8B
Aya-23-35B: https://huggingface.co/CohereFo
原文鏈接:多語(yǔ)言大模型新SOTA!Cohere最新開(kāi)源Aya-23:支持23種語(yǔ)言,8B/35B可選
聯(lián)系作者
文章來(lái)源:新智元
作者微信:AI_era
作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。

粵公網(wǎng)安備 44011502001135號(hào)