標簽:草稿

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業~AI生成影視解說,半個月漲粉變現3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發現...

至高 1.8 倍無損加速!互補量化方案的投機加速

夕小瑤科技說 原創作者 | Juntao Zhao等本文作者來自香港大學和哈爾濱工業大學。其中共同第一作者分別為來自香港大學Netexplo實驗室的博士生Juntao Zhao、She...
閱讀原文

3天把Llama訓成Mamba,性能不降,推理更快!

新智元報道編輯:alan 【新智元導讀】近日,Mamba方面又搞出了有意思的研究:來自康奈爾、普林斯頓等機構的研究人員成功將Llama提煉成了Mamba模型,并且設計...
閱讀原文

無損加速最高5x,EAGLE-2讓RTX 3060的生成速度超過A100

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

推理飆升2倍!普林斯頓北大校友祭出多頭「美杜莎」,33B模型與13B一樣快

新智元報道編輯:桃子 好困【新智元導讀】大模型推理加速如何破局?普林斯頓、UIUC等機構華人團隊提出一個簡單框架Medusa,訓練多個解碼頭,直接讓LLM推理速...
閱讀原文

不用4個H100!340億參數Code Llama在Mac可跑,每秒20個token,代碼生成最拿手|Karpathy轉贊

新智元報道編輯:桃子【新智元導讀】現在,34B Code Llama模型已經能夠在M2 Ultra上的Mac運行了,而且推理速度超過每秒20個token,背后殺器竟是「投機采樣」...
閱讀原文