作者:
TheLee (大佛布魯斯)
2019-06-23 10:05:52先說一下自己的背景:
1. 碩士的領域是image/video compression
長期(>10年)以來做的都是embedded Linux相關的工作
2. 對人工智慧及deep learning相關的知識有很大的興趣
工作之餘也自學了一些(看了市面上的幾本原文書)
目前對於基本的觀念及操作應該知道一些:
downloading data, training data model, testing data model.
3. Computer vision 應該有一些基本的功
看了一些OpenCV的書, 操作過一些案例
一來因為不是computer science/engineering的本科
二來因為過去工作上完全沒有機會用到以驗證所學
自認為還有很多地方不足,
考慮到學校的課程安排應該會比較嚴謹些
因此想試著把學校的學習路程走一次...
不知道有沒有人的碩/博士論文是跟AI/ deep learning相關的,
A. 能否建議一下, 哪些書(作者)是基本必讀的?
B. 有考慮到台大去旁聽課程, 能建議哪些課?
想利用下半年的時間全力(full-time)補足這個領域
人生的最後階段不想再演了
想做有興趣的事
先感謝各位帥哥美女的建議
祝大家都發大財
作者:
labbat (labbat)
2019-06-23 10:14:00好奇問motion compensation或慢速攝影應用 還有發展嗎
作者:
jj0321 (JJ與你倒數唷)
2019-06-23 10:46:00Andrew NG、花書
....我覺得現在門檻很高.....然後吃學歷也很高 就算是四大碩本科 也不一定十拿九穩吧 何況半年
Linux 給技職系統學生就可以做很好,快點换到障碍高的ML是對的。PRML 是很好的書。
作者:
ap954212 (death is like the wings)
2019-06-23 11:27:00Cs231n
作者: musie (Sirius) 2019-06-23 12:00:00
作者:
TWkobe (中華柯比)
2019-06-23 12:09:00Linux太簡單??黑人問號
作者:
aas5566 (aas5566)
2019-06-23 12:51:00說技職就能懂linux是在開玩笑嗎哈哈
李宏毅不太建議,VAE,GMM,EM不夠深入或沒教到。Probalistic Model 需要更強大數學背景,值得研究。但是常會被打敗而沮喪
作者:
cool9203 (看我翹翹的)
2019-06-23 14:46:00推李鴻毅,我猜上面是說用linux不難,但想寫出來就是很大的問題了QQ
作者: NTUCS5566 (給力點) 2019-06-23 15:51:00
tipsofwarren: Linux 給技職系統學生就可以做很好 ??
要看他背景啦,我類EE背景出來的轉ML是0障礙但學linux或os相關就有比較高的門檻要跨
作者: bulc381 (__) 2019-06-23 16:18:00
吃不吃數學也跟領域有關 偏應用類的paper相對容易 反之像ICML一些重推導的paper就會用到在工科系課綱可能不會太注重的數學工具 例如Lp-space、"almost everywhere"的概念,Bayesian的工具例如sampling, variational inference在工學院的機率統計也不見得會碰到
李宏毅的確省略很多數學,但原因是那是一學期的衝深度學習的速成課程啊XD 那可以另外補,對我來說不構成不推薦的原因
作者: Kazimir (Kazimir) 2019-06-23 17:55:00
EDX現在有一門MIT新開的ML 剛開始而已 我正在上所以不知道好不好
作者:
sxy67230 (charlesgg)
2019-06-24 13:16:00sampling在工科消息評估還是蠻常用到的,小弟碩班是走HMM的研究,所以sampling 都還是要學,反倒是變分推理其實變分推理也是從EM拓展出來的。ML我自己從業那麼久,我反而覺得他還是被框在shnnon的消息理論框架裡面。
作者:
abc53 (abc)
2019-06-24 22:32:00李宏毅課上完 作業寫一寫 然後找有興趣的paper實作
作者: coco123 (coco1217) 2019-06-24 23:38:00
感謝分享
作者:
sxy67230 (charlesgg)
2019-06-25 18:51:00李教授的課我自己是會看啦,畢竟這學期的課還是蠻優的,後面介紹很多新模型。畢竟工作以後,真的使用到的模型類型越來越窄,meta那章我自己之前真的了解的就siamese而已,看完教授的課才比較有機會認識幾個比較新的模型。想做nlu的可以去看最新教授transformer、bert那章,不過教授應該也是礙於時間沒有把bert講得很完整,像bert隨機mask,其實是想做denoise autoencoder,這個跟LM模型有承先啟後的關係,要完整從elmo的脈絡一直接下來,最後就是今年剛出來的transformer XL模型。
我個人覺得吃不吃數學真的很看你做哪一方面的耶,有些真的數學推導很多,有些真的沒什麼數學
作者:
DJWS (...)
2019-06-26 08:11:00google awesome deep learning
李宏毅和林軒田,搭配 kaggle 實際練習。基礎有了就多看新的 paper 知道一些新的架構是怎樣設計的,然後自己試著刻看看。