180B參數(shù)的Falcon登頂Hugging Face,超越Llama 2 ,自稱當前最好開源大模型
AIGC動態(tài)歡迎閱讀
原標題:180B參數(shù)的Falcon登頂Hugging Face,超越Llama 2 ,自稱當前最好開源大模型
關鍵字:模型,數(shù)據(jù),版本,基準,代碼
文章來源:夕小瑤科技說
內(nèi)容字數(shù):6238字
內(nèi)容摘要:夕小瑤科技說 分享來源 | 新智元作者 | 桃子一夜之間,世界最強開源大模型Falcon 180B引爆全網(wǎng)!1800億參數(shù),F(xiàn)alcon在3.5萬億token完成訓練,直接登頂Hugging Face排行榜。基準測試中,F(xiàn)alcon 180B在推理、編碼、熟練度和知識測試各種任務中,一舉擊敗Llama 2。甚至,F(xiàn)alcon 180B能夠與谷歌PaLM 2不差上下,性能直逼GPT-4。不過,英偉達…
原文鏈接:點此閱讀原文:180B參數(shù)的Falcon登頂Hugging Face,超越Llama 2 ,自稱當前最好開源大模型
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術深度。
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關文章
暫無評論...