PTT評價

Re: [請益] 想學程式但數學基礎很差怎麼進步

看板Soft_Job標題Re: [請益] 想學程式但數學基礎很差怎麼進步作者
hidog
(.....)
時間推噓 1 推:1 噓:0 →:0

※ 引述《d8888 (Don)》之銘言:
: 1. 高淑蓉 高等微積分(一)
: https://www.youtube.com/watch?v=0vGrHMwdotE
: 學高微是為了某些初微沒深入講的應用,例如 R^n(n>3)上的微積分或是矩陣上的微積: 分,結果目前看了約 50% 就陷入嚴重精神污染,覺得睡覺會聽到古神的低語。目前決定: 先暫停影片補書本基礎。結果指定教材看到 Introduction 集合理論公理化還有邏輯學就: 倒了,後來想換個中文講義降低難度,遇到戴德金分割這種玄學小弟又倒了。看來小弟不: 是適合數學的料 XDDDDDD
: 也順便問問有沒有同好有推薦的 Q<>Q
關鍵字 jacobian
https://zh.wikipedia.org/zh-tw/%E9%9B%85%E5%8F%AF%E6%AF%94%E7%9F%A9%E9%98%B5
用在 R^n -> R^m 的 function 微分.

R^n -> R, 這算是一個簡化的特例
關鍵字 gradient
https://zh.wikipedia.org/zh-tw/%E6%A2%AF%E5%BA%A6

machine learning通常會需要求極值,
微積分告訴我們極值會發生在微分 = 0的位置,也介紹了數個方法求極值

https://zh.wikipedia.org/zh-tw/%E6%87%89%E7%94%A8%E6%96%BC%E6%9C%80%E5%84%AA%E5%8C%96%E7%9A%84%E7%89%9B%E9%A0%93%E6%B3%95
例如牛頓法可以拿來求f' = 0, 也支援R^n函數
求極值的方法很多,我畢業很久一時想不起來那些名詞,牛頓法是最基本的方法
沒記錯統計學上也有一些相關討論

求完極值後,還會有global跟local極值的問題,
沒記錯目前沒有方法保證求到的是global minimal.

ML基本常用的數學就這幾個方向吧?
個人覺得不太需要看高微

微積分,高微,實變,這幾個數學上歸類analysis相關課程
外系微積分會介紹怎麼微分跟積分
高微會討論那些函數無法微分跟積分
實變出現了Lebesgue integral來討論黎曼積分無法積分的那些函數
這些課程我們關心一個sequence {fn}, 若fn -> f, fn都可微,是否保證f可微
若無法保證f可微,增加哪些條件可以保證f可微?
當然完整的課程內容不只這些,但我主要想講的是個人沒那麼建議念高微
高微更多重點放在理論討論,而且高微不好入門,不如念一些好入門的東西.

https://hackmd.io/@johnnyasd12/rkFd2TuK7
有點偏離原本的主題了,這篇是回給d8888,對ML,DL有興趣可以參考我貼的這個連結

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.241.181.76 (臺灣)
PTT 網址

d888803/12 19:54感謝大大的回覆 <(_ _)>