標簽:向量

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...

從長窗口到多向量:RAG范式下AI Infra的機遇和挑戰(zhàn)| Jina AI CTO王楠博士演講預告

12月5日-6日,2024中國生成式AI大會(上海站)將正式舉行。 2024中國生成式AI大會(上海站)是在今年4月18-19日成功舉辦2024中國生成式AI大會(北京站)的基...
閱讀原文

LoRA、完全微調(diào)到底有何不同?MIT 21頁論文講明白了

機器之心報道 編輯:陳陳、小舟本文旨在了解兩種微調(diào)大型語言模型方法之間的差異:完全微調(diào)和低秩自適應 (LoRA)。這兩種方法都用于將預訓練模型適應特定的下...
閱讀原文

大模型內(nèi)部也有功能分區(qū),MIT團隊揭示其“大腦”結構

來源:DeepTech深科技 AI 的“大腦”究竟長什么樣? 近期,來自美國麻省理工學院的研究團隊通過稀疏自編碼器(SAE,Sparse Autoencoder)在大語言模型的激活空...
閱讀原文

AI自己「長出」了類似大腦的「腦葉」?新研究揭示LLM特征的驚人幾何結構

機器之心報道 編輯:張倩、蛋醬大型語言模型在學習概念時竟然會形成令人驚訝的幾何結構,比如代碼和數(shù)學特征會形成一個「葉(lobe)」,類似于我們在做磁共振...
閱讀原文

MIT大牛新發(fā)現(xiàn):LLM和人類大腦結構類似,存在腦葉分區(qū)!

夕小瑤科技說 分享來源 | 新智元LLM居然長「腦子」了? 就在剛剛,MIT傳奇大牛Max Tegmark團隊的新作,再次炸翻AI圈。 論文地址:https://arxiv.org/abs/2410...
閱讀原文

AI「長腦子」了?LLM驚現(xiàn)「人類腦葉」結構并有數(shù)學代碼分區(qū),MIT大牛新作震驚學界!

新智元報道編輯:編輯部 HYZ 【新智元導讀】Max Tegmark團隊又出神作了!他們發(fā)現(xiàn),LLM中居然存在人類大腦結構一樣的腦葉分區(qū),分為數(shù)學/代碼、短文本、長篇...
閱讀原文

LLM實踐系列-數(shù)據(jù)去重之Simhash&Minhash分析與實現(xiàn)

講座預告11月1日上午10點,南開大學在讀博士李森茂,將以《基于擴散模型編碼器模塊的推理加速》為主題進行直播講解,歡迎掃碼報名~今天給大家?guī)碇魼真中合...
閱讀原文

7天開發(fā)一個AI Agent應用!秘密武器:一體化數(shù)據(jù)庫

明敏 發(fā)自 凹非寺量子位 | 公眾號 QbitAI幾個工程師、一個星期,就能做一個AI Agent應用了。 效果be like—— 能理解用戶復雜長命令,推薦符合要求的奶茶店。 ...
閱讀原文

英偉達nGPT重塑Transformer,AI訓練速度暴增20倍!文本越長,加速越快

新智元報道編輯:桃子 LRS 【新智元導讀】LLM訓練速度還可以再飆升20倍!英偉達團隊祭出全新架構歸一化Transformer(nGPT),上下文越長,訓練速度越快,還能...
閱讀原文

國產(chǎn)AI模型登頂全球TOP 1!智源BGE下載破億成Hugging Face月榜冠軍,RAG「瑞士」破紀錄

新智元報道編輯:編輯部 HYZ 【新智元導讀】國產(chǎn)首個AI模型登頂Hugging Face月榜冠軍!發(fā)布短短一年,BGE模型總下載量破數(shù)億,位居國產(chǎn)TOP 1。如今,它在開源...
閱讀原文

國產(chǎn)模型首開Hugging Face月度下載全球第一,智源BGE累計下載逾億

機器之心發(fā)布 機器之心編輯部近日,Hugging Face更新了月度榜單,智源研究院的BGE模型登頂榜首,這是中國國產(chǎn)AI模型首次成為Hugging Face月榜冠軍。BGE在短短...
閱讀原文

希望這篇是最清晰好懂的 Layernorm 原理解析

Hello,大家好,我是 JioNLP。 這一篇文章主要講講 Layer Normalization。在本文里,Layer Normalization 統(tǒng)一都被稱為 layernorm。字面意思就是層歸一化,也...
閱讀原文

OpenAI開啟推理算力新Scaling Law,AI PC和CPU的機會來了

夢晨 金磊 發(fā)自 凹非寺量子位 | 公眾號 QbitAIOpenAI的新模型o1,可謂是開啟了Scaling Law的新篇章—— 隨著更多的強化學習(訓練時計算)和更多的思考時間(測...
閱讀原文

比LoRA更高效!上交大&哈佛推出新微調(diào)框架,瞄準特定任務方向

DV lab 投稿量子位 | 公眾號 QbitAI比LoRA更高效的模型微調(diào)方法來了—— 以常識推理為例,在參數(shù)量減少8~16倍的情況下,兩種方法能達到相同效果。 新方法名叫Lo...
閱讀原文

首次!用合臉數(shù)據(jù)集訓練的識別模型,性能高于真實數(shù)據(jù)集

AIxiv專欄是機器之心發(fā)布學術、技術內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術...
閱讀原文
1238