標(biāo)簽:向量

【萬字訪談】AI教父Hinton:招募Ilya、安利黃仁勛、談大模型的理解、推理、時間尺度、多模態(tài)、算法

Geoffrey Hinton接受Sana Labs專訪★內(nèi)容導(dǎo)讀:這段訪談中,Geoffrey Hinton 回顧了他漫長的研究生涯,并談?wù)摿巳斯ぶ悄艿奈磥怼inton 認(rèn)為: 深度學(xué)習(xí)的成功...
閱讀原文

用最直觀的動畫,講解LLM如何存儲事實(shí),3Blue1Brown的這個視頻又火了

機(jī)器之心報道 編輯:Panda W、陳陳本文根據(jù)視頻整理而來,有聽錯或理解不當(dāng)之處歡迎在評論區(qū)指出。向大模型輸入「Michael Jordan plays the sport of _____(...
閱讀原文

統(tǒng)一transformer與diffusion!Meta融合新方法劍指下一代多模態(tài)王者

機(jī)器之心報道 編輯:陳陳本文引入了 Transfusion,這是一種可以在離散和連續(xù)數(shù)據(jù)上訓(xùn)練多模態(tài)模型的方法。一般來說,多模態(tài)生成模型需要能夠感知、處理和生成...
閱讀原文

搜索圖片有新招了!北大課題組提出圖像檢索新方法,輸入草圖or藝術(shù)or低分辨率 | ECCV 2024

李昊 投稿量子位 | 公眾號 QbitAI從一大堆圖片中精準(zhǔn)找圖,有新招了!論文已經(jīng)中了ECCV 2024。 北京大學(xué)袁粒課題組,聯(lián)合南洋理工大學(xué)實(shí)驗(yàn)室,清華自動化所提...
閱讀原文

faiss向量數(shù)據(jù)庫測試《三體》全集,這家國產(chǎn)AI加速卡,把性能提了7倍!

引言在人工智能和機(jī)器學(xué)習(xí)技術(shù)的飛速發(fā)展中,向量數(shù)據(jù)庫在處理高維數(shù)據(jù)方面扮演著日益重要的角色。近年來,隨著大型模型的流行,向量數(shù)據(jù)庫技術(shù)也得到了進(jìn)一...
閱讀原文

月之暗面對談 Zilliz:長文本和 RAG 如何選擇?

關(guān)于長文本和 RAG 到底如何選擇,一直有爭論,從基模公司到應(yīng)用開發(fā)者。 今天這篇文章,是來自基模公司月之暗面和中間層 Zilliz 的技術(shù)對話,值得一看。 本期...
閱讀原文

類腦計算有望徹底改變計算領(lǐng)域,甚至超越人腦,豐田合作綜述類腦計算的興起

將 ScienceAI設(shè)為星標(biāo) 第一時間掌握 新鮮的 AI for Science 資訊編輯 |KX 最近,微軟系統(tǒng)故障導(dǎo)致全球大范圍宕機(jī)。計算已經(jīng)成為我們生活中不可或缺的一部分。...
閱讀原文

LLM可解釋性的未來希望?稀疏自編碼器是如何工作的,這里有一份直觀說明

機(jī)器之心報道 編輯:Panda簡而言之:矩陣 → ReLU 激活 → 矩陣在解釋機(jī)器學(xué)習(xí)模型方面,稀疏自編碼器(SAE)是一種越來越常用的工具(雖然 SAE 在 1997 年左右...
閱讀原文

延遲交互模型,為什么是下一代RAG的標(biāo)配?

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

從 OpenAI 收購實(shí)時分析數(shù)據(jù)公司看未來數(shù)據(jù)庫長什么樣?

作者 | 冬梅 前不久,OpenAI 宣布收購了一家以數(shù)據(jù)索引及查詢功能而聞名的實(shí)時分析數(shù)據(jù)庫 Rockset。消息一出,數(shù)據(jù)庫領(lǐng)域和 AI 圈一片嘩然。 據(jù)悉,Rockset ...
閱讀原文

微軟開源的GraphRAG爆火,Github Star量破萬,生成式AI進(jìn)入知識圖譜時代?

機(jī)器之心報道 編輯:Panda W知識圖譜從不退環(huán)境!LLM 很強(qiáng)大,但也存在一些明顯缺點(diǎn),比如幻覺問題、可解釋性差、抓不住問題重點(diǎn)、隱私和安全問題等。檢索增...
閱讀原文

RAGFlow開源Star量破萬,是時候思考下RAG的未來是什么了

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

大模型時代數(shù)據(jù)庫技術(shù)創(chuàng)新

演講嘉賓 | 朱潔 百度數(shù)據(jù)庫產(chǎn)品總架構(gòu)師 本文整理自 2024 年 6 月 ArchSummit(深圳站) Data4AI 和 AI4Data 方面的探索和實(shí)踐案例專題的同名主題分享。 大...
閱讀原文

甲骨文首次將LLMs引入數(shù)據(jù)庫,集成Llama 3和Mistral,和數(shù)據(jù)庫高效對話

夕小瑤科技說 原創(chuàng)作者 | 21# 信息時代,數(shù)據(jù)為王。數(shù)據(jù)庫作為數(shù)據(jù)存儲&管理的一種方式,正在以勢不可擋的趨勢與AI結(jié)合。 前有OpenAI 收購了數(shù)據(jù)庫初創(chuàng)公...
閱讀原文

拆分Transformer注意力,韓國團(tuán)隊讓大模型解碼提速20倍

克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI只要將注意力切塊,就能讓大模型解碼提速20倍。 來自韓國科學(xué)技術(shù)研究院、LG和DeepMind的研究人員,提出了一種新的...
閱讀原文
12348