AI訓(xùn)練模型
OpenBMB
OpenBMB全稱為Open Lab for Big Model Base,旨在打造大規(guī)模預(yù)訓(xùn)練語言模型庫與相關(guān)工具, 加速百億級以上大模型的訓(xùn)練、微調(diào)與推理,降低大模型使用門檻,與國內(nèi)外開發(fā)者共同努力形成大模型開源社區(qū), 推動大模型生態(tài)發(fā)展,實現(xiàn)大模型的標(biāo)準(zhǔn)化、普及化和實用化,讓大模型飛入千家萬戶。
OpenBMB開源社區(qū)由清華大學(xué)自然語言處理實驗室和智源研究院語言大模型加速技術(shù)創(chuàng)新中心共同支持發(fā)起。 發(fā)起團隊擁有深厚的自然語言處理和預(yù)訓(xùn)練模型研究基礎(chǔ),近年來圍繞模型預(yù)訓(xùn)練、提示微調(diào)、模型壓縮技術(shù)等方面在頂級國際會議上發(fā)表了數(shù)十篇高水平論文。

數(shù)據(jù)統(tǒng)計
數(shù)據(jù)評估
關(guān)于OpenBMB特別聲明
本站OpenI提供的OpenBMB都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 5月 9日 上午11:22收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進行刪除,OpenI不承擔(dān)任何責(zé)任。
相關(guān)導(dǎo)航
暫無評論...