Grok-1官網
Grok-1 是一個由 xAI 訓練的 3140 億參數專家混合模型 (8 個專家),給定輸入上有 25% 的活躍權重。該權重為2023年10月預訓練結束時的原始權重,這意味著此時沒有針對任何特定對話進行微調。
網站服務:AI模型框架,Grok-1,大型語言模型,開源,馬斯克。

Grok-1簡介
We are releasing the weights and architecture of our 314 billion parameter Mixture-of-Experts model Grok-1.
Grok-1官網入口網址
OpenI小編發現Grok-1網站非常受用戶歡迎,請訪問Grok-1網址入口試用。
數據統計
數據評估
關于Grok-1特別聲明
本站OpenI提供的Grok-1都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2024年 3月 19日 上午6:00收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。
相關導航
暫無評論...