標簽:語言

修改LLaMA2-13B一個參數,語言能力全喪失,復旦等發現大模型新秘密

從年初到現在,以 ChatGPT、LLaMA 等為代表的大語言模型(LLM)展現出了類似人類水平的語言能力,這些大模型可以高效的執行復雜任務,而這些任務往往需要抽象...
閱讀原文

用語言對齊多模態信息,北大騰訊等提出LanguageBind,刷新多個榜單

機器之心專欄機器之心編輯部北京大學與騰訊等機構的研究者們提出了多模態對齊框架 ——LanguageBind。該框架在視頻、音頻、文本、深度圖和熱圖像等五種不同模態...
閱讀原文

高達2萬億參數,遠超GPT-4!亞馬遜全新Olympus大模型曝光,即將對外公布

新智元報道編輯:潤 alan【新智元導讀】作為第一大云計算廠商卻似乎在大模型時代默默無聞的亞馬遜,終于被爆料了!據稱,亞馬遜正在訓練一個高達2萬億參數的...
閱讀原文

把ChatGPT塞進副駕駛!清華、中科院、MIT聯合提出Co-Pilot人機交互框架:完美把控乘客意圖

新智元報道編輯:LRS【新智元導讀】這項工作首次嘗試用語言模型作為輔助駕駛,用描述的方式來控制行動軌跡,依然能符合用戶的軌跡意圖。作為本年度人工智能領...
閱讀原文

GPT-4完成正確率僅6%!北大等提出首個「多輪、多模態」PPT任務完成基準PPTC

新智元報道編輯:LRS【新智元導讀】為了填補LLM在復雜多模態環境中利用復雜工具完成多輪、多模態指令的評估空白,研究人員引入了PowerPoint任務完成(PPTC)...
閱讀原文

宇宙盡頭是「計算」!AI大佬Wolfram最新演講:LLM自主在計算空間探索,奇點降臨就是現在

新智元報道編輯:桃子【新智元導讀】宇宙的終極解,究竟是什么?如何以計算方式,思考人工智能、宇宙和一切?近日,著名的英國科學家Stephen Wolfram在TED 18...
閱讀原文

解讀大模型(LLM)的token

當人們談論大型語言模型的大小時,參數會讓我們了解神經網絡的結構有多復雜,而token的大小會讓我們知道有多少數據用于訓練參數。正像陸奇博士所說的那樣,大...
閱讀原文

英偉達終于發布自家大語言模型,專攻輔助芯片設計

夕小瑤科技說 分享來源 | 量子位英偉達推出了自家最新430億參數大語言模型——ChipNeMo。對于它的用途,英偉達在官方披露消息中也是非常的明確,劍指AI芯片設計...
閱讀原文

英偉達發布大語言模型,專攻輔助芯片設計

金磊 發自 凹非寺量子位 | 公眾號 QbitAI英偉達推出了自家最新430億參數大語言模型——ChipNeMo。對于它的用途,英偉達在官方披露消息中也是非常的明確,劍指AI...
閱讀原文

用童話訓練AI模型,微軟找到了探索生成模型參數的新切入點

選自量子雜志作者:Ben Brubaker機器之心編譯編輯:趙陽即便大語言模型的參數規模日漸增長,其模型中的參數到底是如何發揮作用的還是讓人難以琢磨,直接對大...
閱讀原文

圖模型也要大?清華朱文武團隊有這樣一些觀點

機器之心專欄機器之心編輯部在大模型時代,圖機器學習面臨什么樣的機遇和挑戰?是否存在,并該如何發展圖的大模型?針對這一問題,清華大學朱文武教授團隊首...
閱讀原文

李航:關于大模型的思考及研究熱點

來源:圖靈人工智能本文闡述李航老師對 LLM 的一些看法,主要觀點如下:ChatGPT 的突破主要在于規模帶來的質變和模型調教方式的發明。LLM 融合了實現人工智能...
閱讀原文

像搭樂高一樣做數學定理證明題,GPT-3.5證明成功率達新SOTA

機器之心專欄機器之心編輯部中山大學和華為等機構的研究者提出了 LEGO-Prover,實現了數學定理的生成、整理、儲存、檢索和復用的全流程閉環。背景作為長鏈條...
閱讀原文

港大等發布GraphGPT:1/50微調參數,準確率提升10倍!無需超長token,LLM也能讀懂圖結構

新智元報道編輯:LRS【新智元導讀】GraphGPT框架將圖結構模型和大語言模型進行參數對齊,利用雙階段圖指令微調范式提高模型對圖結構的理解能力和適應性,再整...
閱讀原文

35年首次證明!NYU重磅發現登Nature:神經網絡具有類人泛化能力,舉一反三超GPT-4

新智元報道編輯:編輯部【新智元導讀】Nature刊登了紐約大學等機構的研究人員在人工智能領域最新突破,證明神經網絡具有類似人類語言的泛化性能,再一次印證...
閱讀原文
1222324252629