標簽:方法

今日arXiv最熱NLP大模型論文:微軟發布:大模型時代的可解釋機器學習,現狀與挑戰

夕小瑤科技說 原創作者 | 謝年年、Python自深度學習開啟了人工智能的黑盒模式,模型的可解釋性一直都是專家學者討論研究的重點。 為什么可解釋性問題這么重要...
閱讀原文

大語言模型的深度裁剪法

?夕小瑤科技說 原創作者 | 芒果、Python?引言:大語言模型的計算挑戰與優化需求在人工智能領域,大語言模型(LLMs)已經成為推動語言理解和生成任務進步的重...
閱讀原文

小樣本學習只是一場學術界自嗨嗎?

700個開發硬件免費申請?現金大獎!生成式 AI、機器人 AI、PC AI 三大賽道!AMD Pervasive AI 開發者挑戰賽報名火熱進行中,掃碼了解詳情并報名~導讀本文是知...
閱讀原文

港中文聯合MIT提出超長上下文LongLoRA大模型微調算法

大數據文摘受權轉載自將門創投 現階段,上下文窗口長度基本上成為了評估LLM能力的硬性指標,上下文的長度越長,代表大模型能夠接受的用戶要求越復雜,近期Ope...
閱讀原文

AI模擬器拿下物理仿真新SOTA!|SIGGRAPH Asia 2023最佳論文

NFM團隊 投稿量子位 | 公眾號 QbitAI機器學習讓計算機圖形學(CG)仿真更真實了! 方法名為神經流向圖(Neural Flow Maps,NFM),四個渦旋的煙霧也能精確模...
閱讀原文

大型語言模型的模型壓縮與高效推理:綜述

來源:專知 基于Transformer的大型語言模型取得了巨大成功。然而,在推理過程中產生的顯著內存和計算成本,使得在資源受限的設備上部署大型模型變得具有挑戰...
閱讀原文

Meta發布抽象鏈,大模型工具利用精度+6%,速度+40%!

夕小瑤科技說 原創編輯 | 芒果引言:大語言模型與真實世界知識的對齊挑戰在人工智能領域,大型語言模型(LLMs)的發展已經取得了顯著進步,特別是在理解和執...
閱讀原文

如何解決大模型增量預訓練中的災難性遺忘?

目前不少開源模型在通用領域具有不錯的效果,但由于缺乏領域數據,往往在一些垂直領域中表現不理想,這時就需要增量預訓練和微調等方法來提高模型的領域能力...
閱讀原文

OpenAI、斯坦福大學提出Meta-Prompting,有效提升語言模型的性能

夕小瑤科技說 原創作者 | 智商掉了一地、Python 為了研究如何提高語言模型的性能,使其更充分有效地輸出對于提問的回答,來自斯坦福和 OpenAI 的學者強強聯手...
閱讀原文

重塑3D生成核心理論:VAST、港大、清華用「零」訓練數據生成了3D模型

機器之心專欄 機器之心編輯部AI 生成 3D 模型最難的一關,終于被搞定了。無需任何訓練數據,只需對著模型描述一句話,如「一個做作業的香蕉人」:或是「一只...
閱讀原文

湯曉鷗帶隊:免調優長視頻生成,可支持512幀!任何擴散模型都能用|ICLR'24

豐色 發自 凹非寺量子位 | 公眾號 QbitAI想要AI生成更長的視頻? 現在,有人提出了一個效果很不錯的免調優方法,直接就能作用于預訓練好的視頻擴散模型。 它...
閱讀原文

首個通用雙向Adapter多模態目標追蹤方法BAT,入選AAAI 2024

機器之心專欄 機器之心編輯部能夠有效實現多模態交叉提示跟蹤。 目標跟蹤是計算機視覺的一項基礎視覺任務,由于計算機視覺的快速發展,單模態 (RGB) 目標跟蹤...
閱讀原文

小模型增強可超GPT-4?北航 && 人大 | 提出大模型ICL增強范式,模型越小收益越高!

引言:上下文學習(In-context Learning,ICL)技術是提高模型在自然語言處理任務上表現的高效提示技術,因而眾多研究在這個方向上提出各種方法,但大多數都...
閱讀原文

ICLR 2024 Oral | 三行代碼,即插即用!NUS尤洋團隊新作—InfoBatch,無損數據集動態剪枝加速

大數據文摘受權轉載自將門創投 本文介紹來自NUS尤洋團隊的最新科研成果 - InfoBatch。這是首篇關于無損數據剪枝加速的工作,覆蓋分類、分割、檢測、圖片生成...
閱讀原文

一張照片,為深度學習巨頭們定制人像圖片

機器之心專欄 作者:InstantX 團隊主題驅動的文本到圖像生成,通常需要在多張包含該主題(如人物、風格)的數據集上進行訓練,這類方法中的代表工作包括 Drea...
閱讀原文
1121314151621