FlagAI飛智:AI基礎(chǔ)模型開源項目,支持一鍵調(diào)用OPT等模型
一?背景
GPT-3、OPT系列、悟道等預(yù)訓(xùn)練模型在NLP領(lǐng)域取得了非常矚目的效果,但是不同代碼倉庫有著不同實現(xiàn)風(fēng)格,并且在預(yù)訓(xùn)練大模型過程中使用的技術(shù)也各不相同,造成了技術(shù)鴻溝。為了快速加載、訓(xùn)練、推理不同大模型,使用最新最快的模型并行技術(shù)以及提高用戶訓(xùn)練和使用模型的便捷性,北京智源人工智能研究院推出了FlagAI(飛智)基礎(chǔ)模型開源項目,為一鍵調(diào)大模型等功能提供支持。
二 FlagAI特點
FlagAI飛智是一個快速、易于使用和可擴展的AI基礎(chǔ)模型工具包。 支持一鍵調(diào)用多種主流基礎(chǔ)模型,同時適配了中英文多種下游任務(wù)。
- FlagAI支持最高百億參數(shù)的悟道GLM(詳見GLM介紹),同時也支持BERT、RoBERTa、GPT2、T5 模型、Meta OPT模型和 Huggingface Transformers 的模型。
- FlagAI提供 API 以快速下載并在給定(中/英文)文本上使用這些預(yù)訓(xùn)練模型,你可以在自己的數(shù)據(jù)集上對其進行微調(diào)(fine-tuning)或者應(yīng)用提示學(xué)習(xí)(prompt-tuning)。
- FlagAI提供豐富的基礎(chǔ)模型下游任務(wù)支持,例如文本分類、信息提取、問答、摘要、文本生成等,對中英文都有很好的支持。
- FlagAI由三個最流行的數(shù)據(jù)/模型并行庫(PyTorch/Deepspeed/Megatron-LM)提供支持,它們之間實現(xiàn)了無縫集成。 在FlagAI上,你可以用不到十行代碼來并行你的訓(xùn)練、測試過程,也可以方便的使用各種模型提速技巧。
數(shù)據(jù)統(tǒng)計
數(shù)據(jù)評估
關(guān)于FlagAI – 飛智特別聲明
本站OpenI提供的FlagAI – 飛智都來源于網(wǎng)絡(luò),不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 5月 11日 下午3:03收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進行刪除,OpenI不承擔(dān)任何責(zé)任。
相關(guān)導(dǎo)航
暫無評論...