標(biāo)簽:基準(zhǔn)

詞表的選擇如何影響語言模型訓(xùn)練?這可能是目前見過最好的詞表選擇研究

機器之心報道編輯:趙陽本文初步探討了不同類型的詞表對語言模型訓(xùn)練所產(chǎn)生的影響,研究者使用了 12 個小型的語言模型及 4 個中型的語言模型作為實驗對象,并...
閱讀原文

所有基準(zhǔn)測試都優(yōu)于Llama 2 13B,最好的7B模型來了,免費用

機器之心報道編輯:陳萍、大盤雞這是真正的開源。在 Llama 2 系列模型發(fā)布后的這幾個月里,各大公司機構(gòu)也在不斷推出自家產(chǎn)品。近日,一家法國人工智能初創(chuàng)公...
閱讀原文

英偉達新王者登場!GH200超級芯片碾壓H100,性能飆升17%!

夕小瑤科技說 分享來源 | 新智元繼4月份加入LLM訓(xùn)練測試后,MLPerf再次迎來重磅更新!剛剛,MLCommons發(fā)布了MLPerf v3.1版本更新,并加入了兩個全新基準(zhǔn):LLM...
閱讀原文

碾壓H100!英偉達GH200超級芯片首秀MLPerf v3.1,性能躍升17%

新智元報道編輯:編輯部【新智元導(dǎo)讀】傳說中的英偉達GH200在MLPerf 3.1中驚艷亮相,性能直接碾壓H100,領(lǐng)先了17%。繼4月份加入LLM訓(xùn)練測試后,MLPerf再次迎...
閱讀原文

10萬美元+26天,一個低成本千億參數(shù)LLM就誕生了

機器之心報道編輯:Panda W訓(xùn)練一個 GPT 那樣的千億參數(shù)規(guī)模的大型語言模型需要多少錢和時間?北京智源人工智能研究院和中國科學(xué)院計算技術(shù)研究所等多所機構(gòu)...
閱讀原文

180B參數(shù)的Falcon登頂Hugging Face,超越Llama 2 ,自稱當(dāng)前最好開源大模型

夕小瑤科技說 分享來源 | 新智元作者 | 桃子一夜之間,世界最強開源大模型Falcon 180B引爆全網(wǎng)!1800億參數(shù),F(xiàn)alcon在3.5萬億token完成訓(xùn)練,直接登頂Hugging...
閱讀原文

1800億參數(shù),世界頂級開源大模型Falcon官宣!碾壓LLaMA 2,性能直逼GPT-4

新智元報道編輯:桃子【新智元導(dǎo)讀】一經(jīng)發(fā)布,地表最強開源模型Falcon 180B直接霸榜HF。3.5萬億token訓(xùn)練,性能直接碾壓Llama2。一夜之間,世界最強開源大模...
閱讀原文
1101112