[問卦] 如何評價deep learning自帶regularizatio

作者: obovOGC (彥州彥州,日時擼擼)   2018-03-24 16:16:46
如題
即使neural network capacity很大,
甚至大到足以硬記training data答案時
deep learning仍不容易overfitting
除非你參數亂設
就好像deep learning自帶regularization 一樣
magic!!
究竟是為什麼?
有沒有八卦?
作者: DavidWuuu (Failester)   2018-03-24 16:17:00
供三小啦
作者: iPolo3 (艾POLO衫)   2018-03-24 16:18:00
Fuck in the ass great time
作者: ilovedandan (我愛丹丹 天天丹丹)   2018-03-24 16:18:00
I覺得your英文ability真的很great you怎麼study的?
作者: p00o99o (YA!)   2018-03-24 16:18:00
model搞這麼大幹洨
作者: lai526 (野孩子)   2018-03-24 16:18:00
這邊講 deep learning有幾個聽的懂XD
作者: tim9527 (是個肥宅)   2018-03-24 16:19:00
機器學習啦
作者: hipab (嗨趴)   2018-03-24 16:19:00
may show gun mo?
作者: gfhnrtjpoiuy (against all odds)   2018-03-24 16:19:00
Say 三小
作者: tsoahans (ㄎㄎ)   2018-03-24 16:20:00
沒有 沒加dropout還是很容易overfit
作者: opqr9988 (等吧QQ)   2018-03-24 16:25:00
因為opiuftzation會tinofy,所以equbize要retabe
作者: jaid (jaid)   2018-03-24 16:26:00
滾去知乎
作者: ilovetaylor (taylor)   2018-03-24 16:26:00
這是minasann很容易lost掉的一個mistake確定anada有check幾次再try過比較おけ
作者: everettofu (液化豆腐)   2018-03-24 16:34:00
樓上XD
作者: gaowei16 (啾啾人)   2018-03-24 16:36:00
model這麼複雜幹嘛啦乖乖跑gd
作者: deatheo (逆十字)   2018-03-24 16:46:00
Xgboost
作者: nicks0904 (James)   2018-03-24 16:50:00
你這個model只能說沒用處
作者: Luluemiko (露露)   2018-03-24 17:03:00
xgb lgbm湊合湊合即可
作者: muchu1983 (貝努)   2018-03-24 17:19:00
如果 JYO-SHI KOU-SEI 表現出ejaculation 的結果,就代表你的 APM 已經很不錯了
作者: needmmmoney   2018-03-24 17:34:00
講人話啦 乾

Links booklink

Contact Us: admin [ a t ] ucptt.com