(B AR出口 T )是論文中使用的
文本填充
40 GB 語言模型。由此導出的
- 由[可選]共享: 全熙元(哈文)
- 許可證:
該模型不應被用來故意為人們創造敵對或疏遠的環境。
大量研究探討了語言模型的偏見和公平問題(例如,見Sheng等人(2021)和Bender等人(2021年))。該模型產生的預測可能包括受保護階層中令人不安和有害的刻板印象;身份特征;以及敏感、社會和職業群體。
0.27億 |
數據統計
數據評估
關于gogamza/kobart-base-v2特別聲明
本站OpenI提供的gogamza/kobart-base-v2都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 5月 26日 下午5:53收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。
相關導航
暫無評論...