標簽:高效推理

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業~AI生成影視解說,半個月漲粉變現3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發現...

MiniCPM 4.0

MiniCPM 4.0 是面壁智能推出的端側大模型。模型分為 8B 和 0.5B 兩種參數規模。8B 閃電稀疏版采用創新稀疏架構,能高效處理長文本任務;0.5B 版本以低計算資...
閱讀原文

RF-DETR

RF-DETR是Roboflow推出的實時目標檢測模型。RF-DETR是首個在COCO數據集上達到60+平均精度均值(mAP)的實時模型,性能優于現有的目標檢測模型。RF-DETR結合LW...
閱讀原文

超越DeepSeek推理,效率更高!斯坦福馬騰宇新作:有限數據,無限迭代

原標題:超越DeepSeek推理,效率更高!斯坦福馬騰宇新作:有限數據,無限迭代 文章來源:新智元 內容字數:5932字斯坦福大學提出自博弈定理證明器STP:解決大...
閱讀原文

2025年大模型與Transformer架構:技術前沿與未來趨勢報告

原標題:2025年大模型與Transformer架構:技術前沿與未來趨勢報告 文章來源:人工智能學家 內容字數:24793字歐米伽未來研究所:Transformer架構的崛起與未來...
閱讀原文

開源推理模型阿里Marco-o1技術細節全面解讀

OpenAI O1模型引發業界對大規模推理模型(large reasoning models ,LRM)研究的熱潮。前文評測結果顯示開源的Marco-o1效果不錯,甚至超越部分閉源產品。今天這...
閱讀原文

我與vLLM的2024:清華大佬的vLLM開發之路

也許二十年后再回首,我們會發現,現在我們就站在下一個“互聯網級奇跡”的起點上。
閱讀原文

什么是模型壓縮(Model Compression)

模型壓縮(Model Compression)是指通過各種技術減小深度學習模型的大小和復雜度,便于在資源受限的設備上高效部署和運行。模型壓縮包括權重量化、剪枝、知識...
閱讀原文