標簽:任務

「Meta版ChatGPT」背后的技術:想讓基礎LLM更好地處理長上下文,只需持續預訓練

機器之心報道編輯:Panda W在處理長上下文方面,LLaMA 一直力有不足,而通過持續預訓練和其它一些方法改進,Meta 的這項研究成功讓 LLM 具備了有效理解上下文...
閱讀原文

強化學習與視覺語言模型之間的碰撞,UC伯克利提出語言獎勵調節LAMP框架

大數據文摘授權轉載自將門創投作者:seven_在強化學習(RL)領域,一個重要的研究方向是如何巧妙的設計模型的獎勵機制,傳統的方式是設計手工獎勵函數,并根...
閱讀原文

用暫停token重新訓練大模型,AI學會三思而后行

夢晨 發自 凹非寺量子位 | 公眾號 QbitAI讓ChatGPT給出答案之前多想想步驟,就能提高準確率。那么能不能省去提示詞,直接把這種能力內化在大模型里呢?CMU與...
閱讀原文

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

克雷西 發自 凹非寺量子位 | 公眾號 QbitAI谷歌聯合多所高校的一項最新研究,讓大模型開始擁有了人類的“心智”。在新的提示策略下,大模型不僅能推測出人類所...
閱讀原文

開源標桿!最強中英雙語大模型來了,340億參數,超越 Llama2-70B等所有開源模型

金磊 發自 凹非寺量子位 | 公眾號 QbitAI開源界最強的中英雙語大模型,悟道·天鷹 34B,來了!有多強?一言蔽之:中英綜合能力、邏輯推理能力等,全面超越 Lla...
閱讀原文

做情緒識別,有必要用LLM嗎?

大數據文摘受權轉載自李rumor情緒識別在各種對話場景中具有廣泛的應用價值。例如,在社交媒體中,可以通過對評論進行情感分析來了解用戶的情緒態度;在人工客...
閱讀原文

輕量級持續學習: 0.6%額外參數把舊模型重編程到新任務

機器之心專欄機器之心編輯部持續學習的目的是模仿人類在連續任務中持續積累知識的能力,其主要挑戰是在持續學習新任務后如何保持對以前所學任務的表現,即避...
閱讀原文

Effective Prompt: 編寫高質量Prompt的14個有效方法

夕小瑤科技說 分享來源 | 知乎@Maple小七、劉聰NLP今天給大家帶來一篇《Effective Prompt: 編寫高質量Prompt的14個有效方法》,來自知乎@Maple小七。提示工程...
閱讀原文

國產大模型開源一哥再登場,最強雙語LLM「全家桶」級開源!340億參數超越Llama2-70B

新智元報道編輯:編輯部【新智元導讀】就在剛剛,340億參數的國產大模型悟道·天鷹Aquila2強勢沖上榜首,成為最強開源中英雙語大模型。更YYDS的是,這次智源不...
閱讀原文

GPT-4就是AGI!谷歌斯坦福科學家揭秘大模型如何超智能

新智元報道編輯:編輯部【新智元導讀】谷歌研究院和斯坦福HAI的兩位專家發文稱,現在最前沿的AI模型,未來將會被認為是第一代AGI。最前沿的LLM已經用強大的能...
閱讀原文

Meta再放「長文本」殺器Llama 2-Long:70B尺寸登頂最強「32k上下文」模型,超越ChatGPT

新智元報道編輯:LRS【新智元導讀】Llama 2-Long計算量需求比重新訓練降低40%,還不影響短任務性能!雖然大型語言模型在處理日常問答、總結文本等任務上表現...
閱讀原文

DeepMind 全新 AI 項目曝光:可控制各類機器人,數據集有望開源

作者|Ben Dickson譯者|核子可樂、冬梅DeepMind 的新項目是什么?開發機器人技術的一大挑戰,就在于必須投入大量精力來為每臺機器人、每項任務和每種環境訓...
閱讀原文

7.7億參數,超越5400億PaLM!UW谷歌提出「分步蒸餾」,只需80%訓練數據|ACL 2023

新智元報道編輯:LRS【新智元導讀】LLM不實用,小模型蒸餾才是「現實」的大模型應用路線,全面領先微調技術!土豪請無視。。。大型語言模型雖然性能優異,可...
閱讀原文

30分鐘教會機器人做家務!CMU提出全新結構化世界模型SWIM

大數據文摘授權轉載自將門創投作者:seven_教會機器人在現實環境中解決各種復雜任務,一直是機器人控制領域的關鍵研究課題。近來隨著具身智能的快速發展,機...
閱讀原文

碼農狂喜!微軟提出CodePlan,跨168個代碼庫編碼任務,LLM自動化完成

新智元報道編輯:桃子【新智元導讀】這一次,微軟提出的CodePlan讓碼農的生產力又提高了!對于大模型來說,擅長的是本地化編碼任務。但如果任務跨越了多個相...
閱讀原文