※ 引述《ckrmpuhv (阿瓜)》之銘言:
: 各位板上大大好
: 小弟是後段國立科大資管碩即將畢業
^^^^^^^^^^^^^^^^^
恩..."後段國立科大資管",好一點的公司可能連HR那關都過不了
: 因為一些私人原因是不用當兵
: 所以論文完成後準備開始找工作
: 目前程度:
: 大學學過JAVA
^^^^^^^^^^^^^^^
要走ML,應該是要用Python吧,至少tensorflow 或是pytorch都是在python上有最多的
支持,那如果要走ML的底層,那就應該要會c++跟cuda或是opencl之類的
: 網頁跟資料庫也只有課堂學習過沒實際做小專案
: 因為對Ml有興趣
: 在碩階段期間 都是自學ML相關
: 聽過李宏毅老師的課
: 實作過他課程的作業
: Keras的一些神經網路搭建也沒捨問題
: Kaggle只參加過一兩次 排名都很爛
: 大部分的實作和論文都是跟影像辨識相關
: 最近看板上大大各式各樣建議
: 非四大四中 也不是kaggle的佼佼者
: 數學方面 線代沒學 統計學大學學過但也不熟
: 看完覺得自己很爛出去可能沒人要?
理論不行,直接自爆
但我想問一下,你是否有能力可以去推導back propagation?
或是可以用數學理解為何inception net 比 VGG16好
那甚麼是 L1 L2 constrain?
牛頓法跟gradient descent有甚麼關係勒?
你說你的論文是跟影像有關的,那懂不懂傅立葉轉換阿?
: 目前都還在做ml各種模型實作
: 但看完板上很迷茫要往哪些方向學習怕找不到工作非常憂鬱
: 我不清楚該橫向發展拓別的領域
: 像是網頁、App 自己做一些小專案增加作品集
: 還是去補數學 更深入研究Ml
: 又或者先去刷Leetcode打底
: 還請各位大大指教 謝謝
:
推這篇,我不是ML專業但常常看到套模型就說自己會ML的人…
其實現在有1&2混起來做的 2才是能賺錢的XD套模型也可以啦 問題是要套對就是了
借串問一下,我雖然懂那些基本題,可是不太清楚為何懂了可以知道怎麼設學習率那一塊一般來說不就是,太大的數字不行,就換小的試試看嗎?
作者: UNPRO (業餘) 2021-03-11 14:36:00
推這篇
作者: rereterry (rereterry) 2021-03-11 15:51:00
其實看要走應用還是分析,之後還可以拆分是走純數據,影像,NLP,之後還可以再細分是商品,還是純模型,這塊領域現在被架構的還蠻大的,像銀行體系也會是一條路啦!
作者:
tay2510 (Tay)
2021-03-11 16:27:00ntp大會有疑問是是正常的 原po的lr的例子有點誤導了,實務上都是直接用平行框架搭配一些搜尋演算法去找合適的lr,但我同意跟主管解釋為什麼那個部份
作者:
hegemon (hegemon)
2021-03-11 16:30:00香港某個女網紅也說自己在搞ML, 就套套別人的工具月薪就不少了
(學生淺見)資料工程師通常都會先用傳統ML方法試試看吧?像RandomForest等方法,若演算法效率不好應該先回頭從Data Level檢視/處理,用DL怒train一發通常都是最後選項?
作者:
drajan (EasoN)
2021-03-11 18:48:00先弄出一個可以上線的穩定系統是最難的 挑選model往往是比較容易的部分 大部分都會建議用最簡單的方式去做因為光是最簡單的方式就可以搞死你了
作者:
MoonCode (MoonCode)
2021-03-11 19:25:00數學不好或是沒精通原理的人都不用上班了懂不懂原理不是重點而是能不能產生價值
作者:
evan176 (clown)
2021-03-11 19:44:00不認同樓上,當你面試碰到會BERT但不知道regression和classification差別的人該怎麼辦呢?現在這樣的ML大師還不在少數
有人會Bert還分不清楚cls/reg哦xdddd 那他transformer是白學了?
。。現在很多是ensembling learning現在很多資料工程師反而不懂傳統都先train一發再說
作者:
iiiii (I take 5)
2021-03-12 10:11:00直接問不用py,還可以學嗎?
主成分分析和feature engineering
作者:
exthrash (Wherever I may roam)
2021-03-12 12:18:00現在沒什麼人在用PCA吧
作者:
pot1234 (鍋子)
2021-03-12 22:31:00偷問一下 印象中影像的DL也滿多不傅立葉轉換直接做的吧
作者:
loadingN (sarsaparilla)
2021-03-12 22:38:00肥宅會fft能加分嗎
做ML線代統計重要性沒那麼大啦,模型performance好才是真的
back propagation這種大一微積分就教的東西有什麼好嘴的
都哪年了還在VGG16...都快跟SIFT一樣古董了