有些觀念我覺得要釐清一下比較好
ML的訓練過程說穿了也只是一種數學問題
要分析演算法還是得回到數學的本質
既然Alphago的決策模式加入了隨機性
再加上訓練NN的過程也不能保證得到global optimum
換言之
不管你在training階段餵多棒的data進去
testting階段就是有機會掉到local optimum
而當local optimum距離真正的global optimum很遠時
預測就可能出錯
NN模型具有弱點可以從不同面向說明:
1. 因為它的數學模型複雜, 不屬於convex函數
任何最佳化演算法本來就不能在這類模型上保證得到global optimum
2. 訓練時採用的stochast gradient descent演算法
本身就是局部最佳求解的方式之一
3. 訓練過程中其實也參與一些隨機的機制 (dropout)
現在NN能再紅起來是靠大數據加上研究者聰明的訓練方式
(冠上deep learning之名重新出發)
很大程度地壓抑住上面的本質問題
但不代表它就沒有被破解的空間
否則那些研究如何加雜訊使模型失效的研究者不就是做心酸的嗎
: