作者:
obovOGC (彥州彥州,日時擼擼)
2018-03-24 16:16:46如題
即使neural network capacity很大,
甚至大到足以硬記training data答案時
deep learning仍不容易overfitting
除非你參數亂設
就好像deep learning自帶regularization 一樣
magic!!
究竟是為什麼?
有沒有八卦?
作者:
DavidWuuu (Failester)
2018-03-24 16:17:00供三小啦
作者:
iPolo3 (艾POLO衫)
2018-03-24 16:18:00Fuck in the ass great time
I覺得your英文ability真的很great you怎麼study的?
作者:
p00o99o (YA!)
2018-03-24 16:18:00model搞這麼大幹洨
作者:
lai526 (野孩子)
2018-03-24 16:18:00這邊講 deep learning有幾個聽的懂XD
作者:
tim9527 (是個肥宅)
2018-03-24 16:19:00機器學習啦
作者:
hipab (嗨趴)
2018-03-24 16:19:00may show gun mo?
因為opiuftzation會tinofy,所以equbize要retabe
作者: jaid (jaid) 2018-03-24 16:26:00
滾去知乎
這是minasann很容易lost掉的一個mistake確定anada有check幾次再try過比較おけ
作者:
deatheo (逆十字)
2018-03-24 16:46:00Xgboost
作者: muchu1983 (貝努) 2018-03-24 17:19:00
如果 JYO-SHI KOU-SEI 表現出ejaculation 的結果,就代表你的 APM 已經很不錯了
作者: needmmmoney 2018-03-24 17:34:00
講人話啦 乾