Scaling Law失效,LLM受益遞減,OpenAI改變模型路線,AI社區(qū)炸鍋了
AIGC動態(tài)歡迎閱讀
原標題:Scaling Law失效,LLM受益遞減,OpenAI改變模型路線,AI社區(qū)炸鍋了
關鍵字:模型,表示,數據,人工智能,員工
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 分享來源 | 機器之心有研究預計,如果 LLM 保持現在的發(fā)展勢頭,預計在 2028 年左右,已有的數據儲量將被全部利用完。屆時,基于大數據的大模型的發(fā)展將可能放緩甚至陷入停滯。
來自論文 Will we run out of data? Limits of LLM scaling based on human-generated data但似乎我們不必等到 2028 年了。昨天,The Information 發(fā)布了一篇獨家報道《隨著 GPT 提升減速,OpenAI 改變策略》,其中給出了一些頗具爭議的觀點:
OpenAI 的下一代旗艦模型的質量提升幅度不及前兩款旗艦模型之間的質量提升;
AI 產業(yè)界正將重心轉向在初始訓練后再對模型進行提升;
OpenAI 已成立一個基礎團隊來研究如何應對訓練數據的匱乏。
文章發(fā)布后,熱議不斷。OpenAI 著名研究科學家 Noam Brown 直接表示了反對(雖然那篇文章中也引用了他的觀點)。他表示 AI 的發(fā)展短期內并不會放緩。并且他前些天還在另一篇 X 推文中表示,對于 OpenAI CEO 山姆?奧特曼的 AGI 發(fā)展路徑已經清
原文鏈接:Scaling Law失效,LLM受益遞減,OpenAI改變模型路線,AI社區(qū)炸鍋了
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...