AIGC動態歡迎閱讀
原標題:碾壓Llama2!微軟13億參數phi-1.5,單個A100訓練,刷新SOTA
文章來源:新智元
內容字數:5912字
內容摘要:新智元報道編輯:桃子【新智元導讀】微軟推出了一個全新預訓練模型phi-1.5,共有13億參數,能做QA問答、和寫代碼等等。模型越大,能力越強嗎?然而,事實并非如此。近日,微軟研究人員推出了一個模型phi-1.5,僅有13億參數。論文地址:https://arxiv.org/pdf/2309.05463.pdf具體來說,在常識推理、語言技能,phi-1.5表現與其他模型相當。同時在多步推理上,遠…
原文鏈接:點此閱讀原文:碾壓Llama2!微軟13億參數phi-1.5,單個A100訓練,刷新SOTA
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...