谷歌大模型研究陷重大爭議:訓(xùn)練數(shù)據(jù)之外完全無法泛化?網(wǎng)友:AGI奇點(diǎn)推遲了
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:谷歌大模型研究陷重大爭議:訓(xùn)練數(shù)據(jù)之外完全無法泛化?網(wǎng)友:AGI奇點(diǎn)推遲了
關(guān)鍵字:報(bào)告,解讀,函數(shù),模型,能力
文章來源:量子位
內(nèi)容字?jǐn)?shù):4764字
內(nèi)容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI針對Transformer,谷歌DeepMind一項(xiàng)新的發(fā)現(xiàn)引起了不小爭議:它的泛化能力,無法擴(kuò)展到訓(xùn)練數(shù)據(jù)以外的內(nèi)容。目前這一結(jié)論還沒有進(jìn)一步得到驗(yàn)證,但已經(jīng)驚動(dòng)了一眾大佬,比如Keras之父Francois Chollet表示,如果消息為真,將成為大模型界的一件大事。谷歌Transformer是今天大模型背后的基礎(chǔ)架構(gòu),我們所熟悉的GPT里的…
原文鏈接:點(diǎn)此閱讀原文:谷歌大模型研究陷重大爭議:訓(xùn)練數(shù)據(jù)之外完全無法泛化?網(wǎng)友:AGI奇點(diǎn)推遲了
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評(píng)論...