PTT評價

Re: 本來學ML是該轉路還是繼續鑽研

看板Soft_Job標題Re: 本來學ML是該轉路還是繼續鑽研作者
isaacting
(2312312)
時間推噓22 推:24 噓:2 →:28

※ 引述《ckrmpuhv (阿瓜)》之銘言:
: 各位板上大大好
: 小弟是後段國立科大資管碩即將畢業
^^^^^^^^^^^^^^^^^
恩..."後段國立科大資管",好一點的公司可能連HR那關都過不了

: 因為一些私人原因是不用當兵
: 所以論文完成後準備開始找工作
: 目前程度:
: 大學學過JAVA
^^^^^^^^^^^^^^^

要走ML,應該是要用Python吧,至少tensorflow 或是pytorch都是在python上有最多的
支持,那如果要走ML的底層,那就應該要會c++跟cuda或是opencl之類的

: 網頁跟資料庫也只有課堂學習過沒實際做小專案
: 因為對Ml有興趣
: 在碩階段期間 都是自學ML相關
: 聽過李宏毅老師的課
: 實作過他課程的作業
: Keras的一些神經網路搭建也沒捨問題
: Kaggle只參加過一兩次 排名都很爛
: 大部分的實作和論文都是跟影像辨識相關
: 最近看板上大大各式各樣建議
: 非四大四中 也不是kaggle的佼佼者
: 數學方面 線代沒學 統計學大學學過但也不熟
: 看完覺得自己很爛出去可能沒人要?

理論不行,直接自爆
但我想問一下,你是否有能力可以去推導back propagation?
或是可以用數學理解為何inception net 比 VGG16好
那甚麼是 L1 L2 constrain?
牛頓法跟gradient descent有甚麼關係勒?

你說你的論文是跟影像有關的,那懂不懂傅立葉轉換阿?

: 目前都還在做ml各種模型實作
: 但看完板上很迷茫要往哪些方向學習怕找不到工作非常憂鬱
: 我不清楚該橫向發展拓別的領域
: 像是網頁、App 自己做一些小專案增加作品集
: 還是去補數學 更深入研究Ml
: 又或者先去刷Leetcode打底
: 還請各位大大指教 謝謝
: -----
: Sent from JPTT on my iPhone

我自己也不是ML專業,也算是半路出家的,那因為要把ML放在MCU上,
所以去看了很多ML的paper跟文章。

ML的水很深,如果數學不行,就一定要把數學補起來,要不然人家面試問一下,
就真的倒在那邊惹。(請注意喔,我上面的問題都還只是基本題中的基本喔)

我曾經在一篇文章講過,用Keras把一個常見的模型跑起來,這個請個工讀生
都可以做到的事情,沒有必要花錢請一位工程師來做。

但是我可以告訴我主管 ,為什麼要這樣做,Learning rate要怎麼設定會比較讓
模型快速收斂,這才是我的價值。

喔~~對了,我還只是個韌體工程師喔,我的專業還是在韌體上開發演算法喔

在台灣做ML的大致上有兩種(這也是我專門做ML的學弟跟我講的)ㄎㄎ:

有問題的話也請做ML的專業大大更正

1. 拿現成的model去做 transfer learning或是改善pre-processing的方法,讓圖片
或是資料更容易讓model收斂。

很多公司都是要有馬上的功效,若是重新建立一個新的架構,那要花多少時間去
fine tune?然後要收集多少的資料去最佳化weighting?

聽說連發哥都沒在做這種事情,那就更不用期待其他一些小公司有辦法去支持這樣的 開發案。

2. 把現有的ML 模型縮小,然後可以放在嵌入式系統上。
這就跟我現在在弄的案子比較有關連,確實會需要ML的工程師,不過該工程師
最好也得知道一點嵌入式系統,這樣在執行專案上會比較有幫助。


如果真的要走ML,就請把線性代數跟統計補齊,因為deep learning只是ML中的一部分
如果可以用比較傳統的方法就可以解決的問題,為何一定要用deep learning????

如果發現自己的數學不行,那就趕快盡早轉行。

真心不騙......


順帶一提,其實外商比較不太重視學歷,但很重視英文,所以英文也是一項重要的技能







--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.124.168.123 (臺灣)
PTT 網址

ss8651twtw03/11 14:05

tig460524603/11 14:05推這篇,我不是ML專業但常常看到套模型就說自己會ML的

tig460524603/11 14:05人…

mmonkeyboyy03/11 14:30其實現在有1&2混起來做的 2才是能賺錢的XD

mmonkeyboyy03/11 14:31套模型也可以啦 問題是要套對就是了

ntpuisbest03/11 14:32借串問一下,我雖然懂那些基本題,可是不太清楚為何

ntpuisbest03/11 14:32懂了可以知道怎麼設學習率那一塊

ntpuisbest03/11 14:32一般來說不就是,太大的數字不行,就換小的試試看嗎?

ㄎㄎㄎ 其實也只是跟主管特別強調一下: "我不是只會套模型這樣的啦"XD 當然因為主管不懂deep learning,所以聽到我這樣跟他說,他喔喔喔喔 ~~~果然有價值!! (這可以算是嘴砲的最佳實證) 當然,我自認為我的程度是還不是很懂ML這塊的喔 我只是個半路出家的嵌入式韌體工程師喔

※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:39:45

UNPRO03/11 14:36推這篇

※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 14:52:08

rereterry03/11 15:51其實看要走應用還是分析,之後還可以拆分是走純數據,

rereterry03/11 15:51影像,NLP,之後還可以再細分是商品,還是純模型,這塊

rereterry03/11 15:51領域現在被架構的還蠻大的,像銀行體系也會是一條路啦

rereterry03/11 15:51

tay251003/11 16:27ntp大會有疑問是是正常的 原po的lr的例子有點誤導了,實

tay251003/11 16:27務上都是直接用平行框架搭配一些搜尋演算法去找合適的lr

tay251003/11 16:27,但我同意跟主管解釋為什麼那個部份

沒錯,譬如說Adagrad,這種東西在tensorflow 不用自己去code 但我當初就是跟主管報告甚麼是Adagrad,以及為什麼要用Adagrad 然後主管就: 喔! 讚~~雖然聽不懂, 但感覺很厲害,然後考績就香惹 大guy4這樣 ML面試的問題千變萬化 ,也有可能面試者直接問甚麼是Adagrad阿 ? 那為何用Adagrad效果不錯? 所以我是覺得把ML的基本理論都弄懂是絕對重要的

hegemon03/11 16:30香港某個女網紅也說自己在搞ML, 就套套別人的工具月薪就

hegemon03/11 16:30不少了

ntpuisbest03/11 16:32原來如此

cuteSquirrel03/11 16:53真好

※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:12:53 ※ 編輯: isaacting (59.124.168.123 臺灣), 03/11/2021 17:21:41

CaptPlanet03/11 18:38推 現在ML神棍真的多

luweber8803/11 18:39(學生淺見)資料工程師通常都會先用傳統ML方法試試看吧

luweber8803/11 18:39?像RandomForest等方法,若演算法效率不好應該先回頭

luweber8803/11 18:39從Data Level檢視/處理,用DL怒train一發通常都是最後

luweber8803/11 18:39選項?

drajan03/11 18:48先弄出一個可以上線的穩定系統是最難的 挑選model往往是

drajan03/11 18:49比較容易的部分 大部分都會建議用最簡單的方式去做

drajan03/11 18:49因為光是最簡單的方式就可以搞死你了

MoonCode03/11 19:25數學不好或是沒精通原理的人都不用上班了

MoonCode03/11 19:27懂不懂原理不是重點而是能不能產生價值

我其實不太懂你的點 ....原po說kaggle打得很爛 ,然後又不太懂數學, 假若你們公司 需要有即戰力的ML工程師,你敢用他嗎??????????? 我相信kaggle名次很前面的高手,對於小弟所提出的弱砲問題一定是秒殺

evan17603/11 19:44不認同樓上,當你面試碰到會BERT但不知道regression和cla

evan17603/11 19:44ssification差別的人該怎麼辦呢?現在這樣的ML大師還不在

evan17603/11 19:44少數

luweber8803/11 19:49有人會Bert還分不清楚cls/reg哦xdddd 那他transformer

luweber8803/11 19:49是白學了?

taffy128s03/11 19:50我記得去年發哥有進CVPR, 這個也算一種吧

mmonkeyboyy03/12 01:51。。現在很多是ensembling learning

mmonkeyboyy03/12 01:56現在很多資料工程師反而不懂傳統都先train一發再說

iiiii03/12 10:11直接問不用py,還可以學嗎?

資料降維是什麼? 這個做ML的人倘若不知道,基本上應該是.....呵呵又顆顆 PCA是很常見資料降維的手法之一 這在線性代數裡面是很基本的內容,原po沒有唸過線性代數,我會很懷疑 原po處理資料的能力在哪裡

※ 編輯: isaacting (49.216.70.16 臺灣), 03/12/2021 10:33:37

cuteSquirrel03/12 11:45主成分分析和feature engineering

exthrash03/12 12:18現在沒什麼人在用PCA吧

mmonkeyboyy03/12 13:15還是六種還是七種方式中的主流吧@[email protected]~

mmonkeyboyy03/12 13:16不用py 可以學darknet哦

mmonkeyboyy03/12 13:17不過現在想做好未來一點的大概要做GDL了

pot123403/12 22:31偷問一下 印象中影像的DL也滿多不傅立葉轉換直接做的吧

loadingN03/12 22:38肥宅會fft能加分嗎

shownlin03/12 23:37做ML線代統計重要性沒那麼大啦,模型performance好才是

shownlin03/12 23:37真的

mmonkeyboyy03/13 01:54線代統計我是覺得也要啦 但就看不懂再去念也行

MoonCode03/13 09:45

caseypie03/16 23:18back propagation這種大一微積分就教的東西有什麼好嘴的

j095832208003/17 08:47樓上天真了,很多人無法手算出來的

answerseeker03/18 12:41都哪年了還在VGG16...都快跟SIFT一樣古董了

meRscliche03/19 00:03