※ 引述《joezzzzz (MeteoraSoul)》之銘言:
: ※ 引述《NewSpec (新規格)》之銘言:
: : Musk講的不是真的人工智慧領域的那個A.I.
: : 那根本就是垃圾, 一群學者自high的玩意兒
: : 他指的應該是包含孔祥重、吳恩達現在在搞的deep learning領域
: : deep learning可以說是機器學習的聖杯
: : 基本上就是以clustering為基礎, 模仿生物構成知識與認知的過程
: : 這個觀念與過去的三洨人工智慧或機器學習觀念大相逕庭
: : 但效果卻是出奇的好!
: : 例如吳恩達在前幾年有說過他們成功在不給予先備知識的狀況下讓電腦認得了貓
: : 但他沒說其實最近幾年他讓電腦自己能認得了更多東西...
: : 簡單來說, 如果deep learning持續發展, 那透過deep learning, 還有夠多資料
: : 電腦真的能判斷出某問題 "最正確的解答"
: : 換言之, 如果我們今天給一台有這種功能的電腦足夠多的知識, 足夠多的權限
: : 然後請它做 "對台灣最好的事"
: : 它很可能隔天就把馬江魏全部宰了....= ="""
: 以訛傳訛真的很恐怖~
: 小弟不才正在做Deep learning相關研究~
: 2006這幾篇~
: Hinton, G. E et al.
: Reducing the dimensionality of data with neural networks. Science 2006
: 以及Yoshuaengio et al.
: Greedy Layer-Wise Training of Deep Networks. NIPS 2006
: 簡單來說autoencoder逐層訓練的方式並且利用unlabel的資料解決了Neural Network的
: 隨機初始化以及local optima的問題~事實上頂層還是需要supervised的訓練方式去告訴
: 他要甚麼~
: 2012之前已經很成功的用在語音辨識還有手寫辨識(mnist),之前microsoft在天津有一段
: 演講( http://ppt.cc/jWHj ),他能快速直接英翻中其中很重要的技術也是deep learning~
: Andrew Ng本名吳恩達他是stanford的副教授,也是之前google brain中的重要成員之一
: 不過他現在被hire到百度了~
: Machine Learning and AI via Brain simulations http://ppt.cc/kW2w
: 這個演講說明了他們在2007到2012之間所做deep learning的相關研究~
: Le, et al.,
: Building high-level features using large-scale unsupervised learning. ICML 2012
: 我想原PO應該是說這篇論文吧~
: 他是用10 million 200X200 的unlabeled影像(從youtube中)去訓練~ 目的是找出
: high-level features使得我們能使用這些feature去幫助我們認圖片~
: 因為在learing based的影像分類中對於要使用甚麼樣的feature當成分類的依據常常是
: 重要的課題~
: 所以他們發現在unsupervised的情況下Optimal stimulus有出現人臉及貓臉這只是意味著
: 這類型的feature能在大量影像中被發現~因為影片的資料來源中可能有相當多這類型的資
: 料~對於原PO所說有大量資料就能找出這種non trivial的答案這根本天方夜譚~頂多拿來
: 作regression這種能實數化或是預測比分,統計類型的資訊~ML跟真正AI還差很遠~
: 在computer vision的重要貢獻還是1981 Nobel Prize Medicine,Hubel跟Wiesel發現
: Visual cortex有著hierarchical的結構,在我們visualize類神經網路中發現有同樣的
: 結構使得現在deep learning能夠這麼樣的紅~
: 要上課了先打到這邊~
: http://ppt.cc/-BtE
: 這是stanford關於他們研究所做的Tutorial有興趣可以看看~
有人想知道相關研究我就順便把它補完~
不知道po在這邊是否恰當,如果不行我自刪~
關於Hubel-Wiesel Model先看這個圖~
http://ppt.cc/JewF
Hubel與Wiesel發現以hierarchy的方式在不同層成像,意思是說我們將接收到的影像資訊,
大腦首先會將資訊自動偵測哪些是edge,再經由下一層將這些資訊作group形成某些形狀特
徵,最後才是物件或是人臉等的~當初Neural Network最為人詬病的是我們調這些參數是
trial and error所以它內部運作是個黑盒子,我們只能由結果好壞來判定這些參數是不是
我們要的,現在我們能就由visualize的方式(詳細數學在paper中有推導),來觀察我們模擬
的NN是不是跟大腦一樣~
http://ppt.cc/ARnb
不過以2014的研究來說,物件辨識比較成功的是Convolutional Neural Network簡稱CNN~
比較不同的是他完全是屬於supervised的學習方式~
關於各種不同ML的方式可以參照下圖
http://ppt.cc/odCi
首先先談談ImageNet這個資料庫,它包含20,000 categories和16,000,000 images
裡面有各種很複雜的物件像是Stingray和Mantaray這種~
http://ppt.cc/H~1F
這是今年對於這個資料庫的研究,每年的error rate正以不可思議的方式下降~
http://techtalks.tv/talks/lecture/59459/
這是NYU LeCun(CNN的發明者)展示目前他們做的即時偵測以及online learing的結果
我上述的這些人目前都以高薪被hire到Google,Facebook,MS,百度等大公司,也有報導在探
討這些公司壟斷這些研究人才究竟對我們未來有甚麼影響~
未來10~20年是ML的天下已經在學校以及這些學者的seminar或conference中不只聽到一次~
至於要到AI的程度我想還有一段路要走~