谷歌大模型研究陷重大爭議:訓練數據之外完全無法泛化?網友:AGI奇點推遲了
AIGC動態(tài)歡迎閱讀
原標題:谷歌大模型研究陷重大爭議:訓練數據之外完全無法泛化?網友:AGI奇點推遲了
文章來源:量子位
內容字數:4764字
內容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI針對Transformer,谷歌DeepMind一項新的發(fā)現引起了不小爭議:它的泛化能力,無法擴展到訓練數據以外的內容。目前這一結論還沒有進一步得到驗證,但已經驚動了一眾大佬,比如Keras之父Francois Chollet表示,如果消息為真,將成為大模型界的一件大事。谷歌Transformer是今天大模型背后的基礎架構,我們所熟悉的GPT里的…
原文鏈接:點此閱讀原文:谷歌大模型研究陷重大爭議:訓練數據之外完全無法泛化?網友:AGI奇點推遲了
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業(yè)新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...