一網(wǎng)打盡!深度學習常見問題!
AIGC動態(tài)歡迎閱讀
原標題:一網(wǎng)打盡!深度學習常見問題!
關(guān)鍵字:模型,參數(shù),數(shù)據(jù),誤差,錯誤
文章來源:大數(shù)據(jù)文摘
內(nèi)容字數(shù):6942字
內(nèi)容摘要:
大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自算法進階
1 前言
在傳統(tǒng)軟件工程中,程序問題(即Bugs)會導致程序崩潰,但開發(fā)人員可以通過檢查錯誤來了解原因。
然而,在深度學習中,代碼可能會在沒有明確原因的情況下崩潰。雖然這些問題可以手動調(diào)試,但深度學習模型通常會因為輸出預測不佳而失敗。更糟糕的是,當模型性能較低時,通常沒有任何信號表明模型失敗的原因或時間。
開發(fā)過程中我們很經(jīng)常要花80-90%的時間在數(shù)據(jù)處理及調(diào)試模型,而只花費10-20%的時間推導數(shù)學方程和實現(xiàn)功能。
2 為什么模型的問題排查困難
? 很難判斷是否有錯誤
? 造成相同性能下降的原因有很多
? 結(jié)果可能對超參數(shù)和數(shù)據(jù)集構(gòu)成的微小變化很敏感
2.1 存在隱藏bugs
在深度學習中,大部分錯誤并不會被輕易察覺到,比如標簽順序錯誤。
2.2 超參數(shù)選擇
深度學習模型對超參數(shù)的選擇非常敏感。即使是微妙的調(diào)整,如學習率和權(quán)重的初始化,也會對結(jié)果產(chǎn)生顯著的影響。
2.3 數(shù)據(jù)/模型擬合
我們可以在ImageNet數(shù)據(jù)集上預訓練模型,然后將其應用到更為復雜的自動駕駛汽車圖像數(shù)據(jù)集上進行擬合。
2.4 數(shù)據(jù)集構(gòu)造
在此過程中,常見的問題包括:樣本數(shù)量不足、
原文鏈接:一網(wǎng)打盡!深度學習常見問題!
聯(lián)系作者
文章來源:大數(shù)據(jù)文摘
作者微信:BigDataDigest
作者簡介:普及數(shù)據(jù)思維,傳播數(shù)據(jù)文化