標簽:樣本

用RLHF 2%的算力讓LLM停止有害輸出,字節提出LLM遺忘學習

機器之心專欄機器之心編輯部如何讓LLM “忘記” 學到的有害內容?隨著大型語言模型(LLM)的發展,從業者面臨更多挑戰。如何避免 LLM 產生有害回復?如何快速刪...
閱讀原文

微調都不要了?3個樣本、1個提示搞定LLM對齊,提示工程師:全都回來了

機器之心報道機器之心編輯部大模型的效果好不好,有時候對齊調優很關鍵。但近來很多研究開始探索無微調的方法,艾倫人工智能研究所和華盛頓大學的研究者用「...
閱讀原文

NeurIPS 2023 | 模仿人類舉一反三,數據集擴增新范式GIF框架來了

機器之心專欄機器之心編輯部在這篇 NeurIPS 2023 論文中,來自新加坡國立大學和字節跳動的學者們受人類聯想學習的啟發,提出了數據集擴增的新范式,有效地提...
閱讀原文

微軟僅憑「提示工程」讓GPT-4成醫學專家!超過一眾高度微調模型,專業測試準確率首次超90%

西風 發自 凹非寺量子位 | 公眾號 QbitAI微軟最新研究再次證明了提示工程的威力——無需額外微調,無需專家策劃,僅憑提示,GPT-4就能化身“專家”。使用他們提出...
閱讀原文

大模型沒有自我改進能力?蘇黎世理工聯合Meta AI提出小模型架構,顯著提升大模型表現

夕小瑤科技說 原創作者 | 謝年年、python前段時間,多位大佬發文指出大模型沒有自我改進的能力,甚至自我改進之后,回答質量還會明顯下降。自我改進之所以不...
閱讀原文

材質界的ImageNet,大規模6維材質實拍數據庫OpenSVBRDF發布|SIGGRAPH Asia

機器之心專欄機器之心編輯部在計算圖形學領域,材質外觀刻畫了真實物體與光線之間的復雜物理交互,通常可表達為隨空間位置變化的雙向反射分布函數(Spatially...
閱讀原文

小模型如何進行上下文學習?字節跳動 & 華東師大聯合提出自進化文本識別器

機器之心專欄機器之心編輯部我們都知道,大語言模型(LLM)能夠以一種無需模型微調的方式從少量示例中學習,這種方式被稱為「上下文學習」(In-context Learn...
閱讀原文

用AI大模型「改造」QQ瀏覽器搜索,騰訊獨家揭秘

機器之心專欄作者:周天華、馬晉、劉杰騰訊QQ瀏覽器搜索應用部1:引言自從搜索引擎問世以來,信息檢索算法歷經多次技術更迭,其演進的歷程可大致歸納為四個技...
閱讀原文

13B模型全方位碾壓GPT-4?這背后有什么貓膩

機器之心報道編輯:陳萍你的測試集信息在訓練集中泄漏了嗎?一個參數量為 13B 的模型竟然打敗了頂流 GPT-4?就像下圖所展示的,并且為了確保結果的有效性,這...
閱讀原文

「對齊」太強是壞事?人大最新研究:完美正樣本反而會損害「圖對比學習」

新智元報道編輯:LRS【新智元導讀】人民大學最新研究指出,更好的數據增強雖然可以提升其在下游任務的泛化能力,但也會減弱對比學習的上游性能。近年來,由于...
閱讀原文

當數據成為「生產資料」,三篇論文總結如何用水印技術保護AI訓練數據版權

機器之心原創作者:Jiying編輯:H4O1、引言 -- 為什么要在 AI 訓練數據中添加水印?深度神經網絡(DNN)以其高效率和高效益被廣泛應用于許多關鍵任務應用和設...
閱讀原文

用AI評估AI,上交大新款大模型部分任務超越GPT-4,模型數據都開源

Pengfei Liu 投稿自 凹非寺量子位 | 公眾號 QbitAI評估大模型對齊表現最高效的方式是?在生成式AI趨勢里,讓大模型回答和人類價值(意圖)一致非常重要,也就...
閱讀原文

美國阿貢國家實驗室發布快速自動掃描套件 FAST,助力顯微技術「快速閱讀」成為可能

By 超神經「我高興地在北京市的天安門廣場上看紅色的國旗升起」快速閱讀一下這個句子,大家可能會發現,只需「我在天安門廣場看升旗」幾個字,就能概述我們需...
閱讀原文

再見了,提示~ 谷歌發布自適應提示方法,從此告別提示工程!

夕小瑤科技說 原創作者 | 謝年年、ZenMoore大模型雖好,但卻存在著一個惱人的問題:大模型回答得好不好,取決于我們問題問得怎么樣。一個好的、詳細的問題往...
閱讀原文

從「最強2D」升維「最強3D」!智源聯合清北重磅發布10億參數Uni3D視覺大模型

新智元報道編輯:好困【新智元導讀】最近,智源、清華和北大聯合發布了全新的10億參數的3D視覺通用模型——Uni3D,在主流3D視覺能力上取得了全方位的性能突出!...
閱讀原文
15678