標簽:模型壓縮

開源推理模型阿里Marco-o1技術細節全面解讀

OpenAI O1模型引發業界對大規模推理模型(large reasoning models ,LRM)研究的熱潮。前文評測結果顯示開源的Marco-o1效果不錯,甚至超越部分閉源產品。今天這...
閱讀原文

談談DeepSeek-v3提到的基礎設施演進

DeepSeek-v3將算法與基礎設施融合,推動硬件架構創新。
閱讀原文

低精度只適用于未充分訓練的LLM?騰訊提出LLM量化的scaling laws

本文介紹了一套針對于低比特量化的 scaling laws。
閱讀原文

什么是模型量化(Model Quantization)

模型量化(Model Quantization)是深度學習模型優化中的一項關鍵技術,它通過減少模型參數的位寬來降低模型的存儲和計算需求,從而提高模型在各種硬件平臺上...
閱讀原文

突破極限:LLM能力密度驚人翻倍的Densing法則揭秘

大模型不僅有Scaling Law,還有Densing Law
閱讀原文

突破12%計算量限制:YOPO剪枝技術讓模型性能大幅提升!

研究團隊針對剪枝多模態大模型以實現高效計算的挑戰進行了研究。
閱讀原文
12