標簽:樣本

「think step by step」還不夠,讓模型「think more steps」更有用

機器之心報道 機器之心編輯部本文對思維鏈的推理步長進行了控制變量實驗,發現推理步長和答案的準確性是線性相關的,這種影響機制甚至超越了問題本身所產生的...
閱讀原文

小模型增強可超GPT-4?北航 && 人大 | 提出大模型ICL增強范式,模型越小收益越高!

引言:上下文學習(In-context Learning,ICL)技術是提高模型在自然語言處理任務上表現的高效提示技術,因而眾多研究在這個方向上提出各種方法,但大多數都...
閱讀原文

ICLR 2024 Oral | 三行代碼,即插即用!NUS尤洋團隊新作—InfoBatch,無損數據集動態剪枝加速

大數據文摘受權轉載自將門創投 本文介紹來自NUS尤洋團隊的最新科研成果 - InfoBatch。這是首篇關于無損數據剪枝加速的工作,覆蓋分類、分割、檢測、圖片生成...
閱讀原文

三行代碼無損加速40%,尤洋團隊AI訓練加速器入選ICLR Oral論文

克雷西 發自 凹非寺量子位 | 公眾號 QbitAI用剪枝的方式加速AI訓練,也能實現無損操作了,只要三行代碼就能完成! 今年的深度學習頂會ICLR上,新加坡國立大學...
閱讀原文

今日最佳NLP論文推薦:顛覆性Prompt-tuning新法

夕小瑤科技說 原創作者 | 賽博馬良本文內容由 賽博馬良「AI論文解讀達人」 智能體生成,人工整理排版。 「AI論文解讀達人」 可提供最熱AI論文推薦、論文解讀...
閱讀原文

能找神經網絡Bug的可視化工具,Nature子刊收錄

機器之心報道 編輯:婁佳琪、大盤雞近來,《自然》子刊收錄了一項能找出神經網絡在哪里出錯的研究成果。研究團隊提供了一種利用拓撲學描述神經網絡的推斷結果...
閱讀原文

一條磁力鏈爆全網,Mixtral 8x7B論文來了!碾壓Llama 2 70B,每token僅需激活13B參數

新智元報道編輯:桃子 好困 【新智元導讀】爆火社區的Mixtral 8x7B模型,今天終于放出了arXiv論文!所有模型細節全部公開了。還記得一個月前,Mistral AI突然...
閱讀原文

告別逐一標注,一個提示實現批量圖片分割,高效又準確

機器之心專欄 機器之心編輯部僅需一個任務描述,即可一鍵分割所有圖片! Segment Anything Model (SAM) 的提出在圖像分割領域引起了巨大的關注,其卓越的泛化...
閱讀原文

如果我搬出RLHF+GAN這個設定,你如何應對

前陣子騰訊AI Lab悄悄掛出了一篇文章:Adversarial Preference Optimization (APO)[1],看到設定我就驚呆了:RLHF+GAN,難道還嫌RLHF本身不夠難訓嗎?但讀下...
閱讀原文

GPT-4變笨!回答新問題性能太差,想保持水準只能不斷訓練新模型

新智元報道編輯:潤 【新智元導讀】最近由UCSC的研究人員發表論文,證明大模型的零樣本或者少樣本能力,幾乎都是來源于對于訓練數據的記憶。昨天,一篇系統性...
閱讀原文

這是GPT-4變笨的新解釋

機器之心報道 編輯:蛋醬變笨的本質是知識沒進腦子。 自發布以來,曾被認為是世界上最強大的 GPT-4 也經歷了多場「信任危機」。 如果說今年早些時候那次「間...
閱讀原文

ChatGPT變笨新解釋:世界被AI改變,與訓練時不同了

夢晨 發自 凹非寺量子位 | 公眾號 QbitAI對于ChatGPT變笨原因,學術界又有了一種新解釋。 加州大學圣克魯茲分校一項研究指出: 在訓練數據截止之前的任務上,...
閱讀原文

全球最強「開源版Gemini」誕生!全能多模態模型Emu2登熱榜,多項任務刷新SOTA

新智元報道編輯:桃子 好困 【新智元導讀】最強的全能多模態模型來了!就在近日,智源研究院重磅發布了開源界的「Gemini」——Emu2,一口氣刷新多項SOTA。過去...
閱讀原文

一秒100張實時生成二次元老婆照!高吞吐低延遲低功耗|登頂GitHub熱榜、已開源

西風 發自 凹非寺量子位 | 公眾號 QbitAI單RTX4090,每秒生成100張圖! 一種專為實時交互式圖像生成而設計的一站式解決方案,登頂GitHub熱榜。 方案名為Strea...
閱讀原文

PaLM 2數學性能暴漲6%!DeepMind新作力證「合成數據」是通往AGI關鍵

新智元報道編輯:桃子【新智元導讀】AI可以從自己生成的「合成數據」中學習,最重要的是,能夠大幅提升數據問題解決和代碼生成的能力。合成數據,或許就是大...
閱讀原文
145678