標簽:專家

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...

從專家到傻瓜:Claude 3.5兩小時狂飆編程,8小時后卻現(xiàn)驚人短板!

原標題:Claude 3.5兩小時暴虐50多名專家,編程10倍速飆升!但8小時曝出驚人短板 文章來源:新智元 內容字數(shù):7797字AI自主研發(fā)能力的現(xiàn)狀與挑戰(zhàn) 隨著人工智...
閱讀原文

萬字長文細說騰訊發(fā)布史上最大開源Moe:Hunyuan-Large(詳解版,建議收藏)

大會預告12月5日-6日,2024中國生成式AI大會(上海站)將舉辦。上海科大助理教授、博導顧家遠,騰訊優(yōu)圖實驗室天衍研究中心負責人吳賢,銀河通用機器人合伙人...
閱讀原文

專家模型不要專家并行!微軟開源MoE新路徑

新智元報道編輯:alan 【新智元導讀】近日,來自微軟的研究人員開源了使用全新方法訓練的MoE大模型,不走尋常路,且編碼和數(shù)學表現(xiàn)出色。繼Phi家族之后,微軟...
閱讀原文

騰訊混元又來開源,一出手就是最大MoE大模型

AIxiv專欄是機器之心發(fā)布學術、技術內容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術...
閱讀原文

Jurgen、曼寧等大佬新作:MoE重塑6年前的Universal Transformer,高效升級

機器之心報道 編輯:杜偉、蛋醬7 年前,谷歌在論文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又發(fā)布了 Unive...
閱讀原文

AI 賦能應用開發(fā):大模型如何重塑行業(yè)與技術邊界?| 直播預告

AI 技術的持續(xù)發(fā)展為應用開發(fā)帶來了前所未有的機遇與挑戰(zhàn)。本次直播,我們特別邀請到來自字節(jié)跳動、百度和阿里巴巴的技術專家,分享他們在 AI 應用開發(fā)中的獨...
閱讀原文

港大新型圖基礎模型AnyGraph:挑戰(zhàn)Scaling Law,精準建模多樣化結構模式和特征空間

AnyGraph團隊 投稿量子位 | 公眾號 QbitAI新型圖基礎模型來了—— AnyGraph,基于圖混合專家(MoE)架構,專門為實現(xiàn)圖模型跨場景泛化而生。 通過MoE架構、路由...
閱讀原文

100B 的「跨級」躍升!元象發(fā)布最大 MoE 開源大模型,「高性能全家桶」系列全部免費

作者 | 華衛(wèi) 9 月 13 日,元象 XVERSE 發(fā)布中國最大 MoE 開源模型:XVERSE-MoE-A36B。該模型總參數(shù) 255B,激活參數(shù) 36B,能 達到 100B 模型的性能「跨級」躍...
閱讀原文

中國最大開源MoE模型,255B參數(shù)無條件免費商用,元象發(fā)布

允中 發(fā)自 凹非寺量子位 | 公眾號 QbitAI元象XVERSE發(fā)布中國最大MoE開源模型: XVERSE-MoE-A36B,該模型總參數(shù)255B,激活參數(shù)36B,達到100B模型性能的「跨級...
閱讀原文

國產(chǎn)最大MoE開源模型發(fā)布!騰訊AI Lab創(chuàng)始人帶隊,已融2億美元

2550億參數(shù)、免費可商用,前騰訊副總裁創(chuàng)業(yè)。 編輯|香草 智東西9月13日報道,今日,大模型創(chuàng)企元象XVERSE發(fā)布國內最大MoE開源模型XVERSE-MoE-A36B,其總參數(shù)2...
閱讀原文

MoE再下一城!港大提出AnyGraph:首次開啟「圖大模型」Scaling Law之路

新智元報道編輯:LRST 【新智元導讀】AnyGraph聚焦于解決圖數(shù)據(jù)的核心難題,跨越多種場景、特征和數(shù)據(jù)集進行預訓練。其采用混合專家模型和特征統(tǒng)一方法處理結...
閱讀原文

港大黃超團隊推出AnyGraph, 首次揭秘圖大模型的Scaling Law

AIxiv專欄是機器之心發(fā)布學術、技術內容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術...
閱讀原文

幻方AI ESFT:針對 MoE 的高效微調方案,媲美全參微調

生成式AI時代最火AI芯片峰會下月來襲!9月6-7日,智猩猩發(fā)起主辦的2024全球AI芯片峰會將在北京盛大舉行。峰會設有開幕式、數(shù)據(jù)中心AI芯片專場、邊緣/端側AI芯...
閱讀原文

HyperAI超神經(jīng) x MoonBit | 第4期Meetup暨編程大賽開幕,大模型時代下編程實踐與前沿發(fā)展

MoonBit 第四期 Meetup 來啦!HyperAI超神經(jīng)邀您共同參賽~ 2024 年 9 月 1 日,MoonBit 將攜手多位專家、老師在深圳這座創(chuàng)新的城市,舉辦 Meetup 第四期暨 Mo...
閱讀原文

算法、系統(tǒng)和應用,三個視角全面讀懂混合專家(MoE)

機器之心報道 編輯:Panda WLLM 很強,而為了實現(xiàn) LLM 的可持續(xù)擴展,有必要找到并實現(xiàn)能提升其效率的方法,混合專家(MoE)就是這類方法的一大重要成員。最...
閱讀原文
1235