AIGC動態歡迎閱讀
原標題:PyTorch官宣:告別CUDA,GPU推理迎來Triton加速新時代
關鍵字:內核,矩陣,乘法,模型,性能
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:喬楊 Frey
【新智元導讀】用英偉達的GPU,但可以不用CUDA?PyTorch官宣,借助OpenAI開發的Triton語言編寫內核來加速LLM推理,可以實現和CUDA類似甚至更佳的性能。試問,有多少機器學習小白曾被深度學習框架和CUDA的兼容問題所困擾?
又有多少開發者曾因為頻頻閃爍的警報「CUDA版本必須與安裝的PyTorch匹配?。?!」而企圖炸鍵盤?
無論是TensorFlow還是Pytorch,GPU和CUDA搭配的概念早已深入骨髓。
如果我說,就在昨天,有款為LLM「量身定做」的CUDA-free推理上新了!你激不激動?
原文地址:https://pytorch.org/blog/cuda-free-inference-for-llms/?hss_channel=tw-776585502606721024
那么,讓我們緊跟Pytorch的官方技術博客,一探究竟!看看它是如何將「」變為現實!
GPU的好搭子CUDACUDA(Compute Unified Device Architecture)到底是何方神物?為何被視為GPU的好搭子,LLMs的「利器」
原文鏈接:PyTorch官宣:告別CUDA,GPU推理迎來Triton加速新時代
聯系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...