AIGC動態歡迎閱讀
原標題:拋棄自回歸,連接一致性Diffusion和LLM!UCSD上交新作熱度緊追AF 3
關鍵字:模型,語言,算法,論文,序列
文章來源:新智元
內容字數:4063字
內容摘要:
新智元報道編輯:喬楊 好困
【新智元導讀】來自加州大學圣地亞哥分校和上海交通大學的幾位研究者發表了他們關于「一致性大語言模型」的研究成果(Consistency LLM),使用Jacobi解碼算法實現并行化并使用「一致性損失函數」,將文字生成速度提升了2.4-3.4倍。DeepMind新發布的AlphaFold 3是科技圈今天的絕對大熱門,成為了Hacker News等許多科技媒體的頭版頭條。
Hacker News熱榜上緊隨其后的則是今年2月發布的論文「一致性大語言模型」。
到底是什么樣的成果,竟然可以頂著AlphaFold 3的熱度出圈?
這篇論文不僅切中了大語言模型推理速度慢的痛點,而且實現了性能大幅度提升。
CLLM在多個下游任務上都取得了2-3倍的加速,且推理過程沒有引入額外成本。在GSM8K和Spider兩個任務中,相比今年1月剛發布的Medusa 2都有了明顯提升。
論文的兩位共同一作都是一年級博士生,分別是來自上海交通大學的寇思麒和來自加州大學圣地亞哥分校的胡嵐翔,他們的指導老師是交大的鄧志杰教授和UCSD的張昊教授,后者也是Vicuna/vLLM/Chatbot A
原文鏈接:拋棄自回歸,連接一致性Diffusion和LLM!UCSD上交新作熱度緊追AF 3
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...