AIGC動態歡迎閱讀
原標題:一步文生圖大模型還能“更小更快”,MixDQ量化方法無損“瘦身”擴散模型3倍,提速1.5倍
關鍵字:模型,方案,顯存,圖像,方法
文章來源:大數據文摘
內容字數:0字
內容摘要:
大數據文摘授權轉載自將門創投
作者:趙天辰
我們提出了MixDQ,一種面向少步擴散模型的混合比特量化方案。
MixDQ分析定位了“少步擴散模型量化”的獨特問題,并提出針對性解決方案。
針對少步生成模型,在現有量化方案在W8A8損失嚴重的情況下,MixDQ在能夠實現多方面指標(圖像質量,文圖吻合,人為偏好)無損的W8A8量化,W4A8無明顯視覺損失。
我們實現了高效的INT8 GPU算子,以實現實際的顯存與延遲優化,并將模型開源為Huggingface Pipeline,通過幾行代碼即可調用。論文標題:
MixDQ: Memory-Efficient Few-Step Text-to-Image Diffusion Models with Metric-Decoupled Mixed Precision Quantization
論文鏈接:
https://arxiv.org/abs/2405.17873
Project page:
https://a-suozhang.xyz/mixdq.github.io/
Huggingface Pipeline:
https://huggingf
原文鏈接:一步文生圖大模型還能“更小更快”,MixDQ量化方法無損“瘦身”擴散模型3倍,提速1.5倍
聯系作者
文章來源:大數據文摘
作者微信:BigDataDigest
作者簡介:普及數據思維,傳播數據文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...