機器學習是否需要完整扎實的數學基礎?


一個比較高質量的參考語雀網站 https://www.yuque.com/angsweet/machine-learning/jian-jie

 


線代高數概率論
高數,微積分,線代,概率論,運籌學(優化)

微積分、線性代數、概率與統計、矩陣和數值分析、優化方法
線代,微積分,概率論,數理統計,一些算法思想的數學基礎

 

微積分,線性代數,概率與統計,最優化方法 建議讀5~6遍,哈哈

這是基礎,高等點做研究的,需要學習 random data,

概率論貝葉斯,微積分泰勒公式,泛函分析,pca,實變函數等等


理解線代,概率與統計,凸優化

基本上就可以完成一個機器學習項目了

 

 

 

 

 

如果你的目標是成為一位偏工程的engineer,那么其實數學基礎沒有那么重要;如果你的目標是成為一位優秀的AI Researcher,也希望將來在企業做研發的工作,那我想扎實的數學能力是必要的。但是不管是上述哪兩個position,對於基本的學習算法的理論都是需要牢固掌握的,需要能夠做到遇到問題,分析問題並且用相應的方式去解決問題。LZ在實驗室里做研究,那么初期其實要求沒有那么高,沒有必要去刻意補充大量數學課,我個人覺得直接學習對應的機器學習/深度學習課程就好,這兒網上有很多有用的課程資源,比如CS224n,CS231,李宏毅機器學習等。認真堅持下來,在videos和slides學理論,在assignments中學習實踐,我想慢慢就適應了這個學習過程!后面,直接研讀你相應領域的文獻即可,在不斷復現論文的過程中試錯、思考與成長!

 

 


需要,甚至可以說機器學習就是某種意義上的應用數學。與傳統數學教育不同的是,從小學到高中之前學的數學都是偏向計算,更多的是確定性思維。機器學習則偏向於概率統計,更多的是不確定性思維。為什么說機器學習就是數學呢?針對具體問題場景,機器學習通常會根據概率統計進行建模,比如二分類問題天然符合伯努利分布,多分類問題符合多項分布,回歸問題符合高斯分布,如果要預測可數數值問題可以用泊松分布進行建模等等。建立好模型之后,我們就需要求解模型參數,這時候就有點估計,區間估計之分。在點估計場景中,常用的方法有最大似然估計,最大后驗估計等。這就是為什么機器學習一言不合就開始最大似然估計的原因,傳統模型都是在做由因推果的事情。但是在很多實際場景中,我們是先知道結果,然后去反推出各種原因的概率。這時候,貝葉斯公式就起到了關鍵作用。所以,通常面對這樣的問題場景,都會使用貝葉斯公式或者貝葉斯估計就行建模。一般,貝葉斯公式會搭配最大后驗參數估計使用。機器學習把概率和圖結合起來組成概率圖模型,進一步提升了模型的描述能力。典型代表是:有向圖中的貝葉斯網絡,無向圖中的馬爾科夫條件隨機場等。概率圖模型中還有受限玻爾茲曼機等,在就越來越像機器學習的另一個分支深度學習。機器學習的另一個強大的分支——深度學習,深度學習的理論模型很簡單,就是多層感知機。單個感知機算法其實很笨,幾乎算是機器學習中當兵作戰能力最弱的算法了,但是,多層感知機就完全不一樣了。在辛頓大神沒有把反向傳播算法完善之前,多層感知機算法可謂是命途多舛,險些把深度學習扼殺在搖籃之中。反向傳播算法形式上也不難,學過微積分大學數學的都不陌生。正是由這些簡單的零部件組合出了這個驚世駭俗的神兵利器。深度學習之所以是機器學習的一個分支就在於,深度學習並沒有脫離機器學習的思想范疇,仍是建立模型,求解模型參數,利用模型進行預測這一套流程。最大的區別是深度學習可以做到端到端的訓練,機器學習中的特征工程部分自動由模型完成。深度學習強大的特征提取能力是它風光無限的法寶,典型代表是 CNN 卷積神經網絡。如果深究的話,特征提取器——卷積核就是某種“濾波器”,這在數學或信號與系統中都有相應的理論支撐。寫得很亂,想到哪兒就寫到哪兒了。總之,機器學習不誇張的說就是數學。但是,此數學非彼數學。我們都接受過了十幾年的數學教育,但是我們接受的傳統數學教育,都過於關注確定性計算問題。這么多年的數學教育並沒有給我們帶來思維層面的提升,甚至現在日常生活中的計算問題都交給了計算器,我們更加感受不到數學的重要性。或許人類並不擅長計算,所以上帝才會派圖靈,馮·諾依曼等大神送來了計算機。傳統的確定性數學將會逐步交給計算機接管,這些重復機械性的工作都交給計算機。以牛頓為代表的經典物理學派為啥被以愛因斯坦,馮·諾依曼為代表的近現代物理學派擊敗。主要原因是他們選用的理論工具不一樣,牛頓可謂是確定性思維的巔峰,其傳世之作《自然哲學的數學原理》足以證明他的雄心勃勃,類似的還有“麥克斯韋妖”。但是,這個世界就是不會按照任何一個人的意願去運轉。以愛因斯坦為代表的近現代物理學家們扔掉了破舊的工具,換上了概率統計,矩陣等這些強大的新時代理論工具。如果說“彼數學”是傳統數學的話,那么“此數學”就是以集合論圖論,概率統計,矩陣線性代數,微積分為代表的高等數學。圖論,概率統計用來建立模型,張量用來存儲數據,矩陣用來描述操作,微積分用來求解模型等等。從這個角度來看,機器學習可不就是數學嗎?

 

 

 


研究的話,像搞優化理論的,涉及到變分推斷的,隨機過程的,等等,這些數學要求就會大於本科的那幾門大家都要學的數學課。其他方向的話,學好微積分,線性代數,概率論勉強夠用。搞cv,nlp的如果不是很硬核的話也不用學太多。然后是像ICML, NIPS, AAAI, IJCAI這些會議的數學要求比較高。具體到某個應用的會議,比如cvpr,eccv等,理論部分要求會低一些。文科轉的話,可能基礎那幾門還要好好再學學,打牢基礎。其實未來去向如果是工業界搞開發,以你現在的情況,會編程,能快速實現算法最重要。

 

 

原回答:不需要,我就會點高數線代概率論


我學的是數學專業,現在在做算法工作,數學內容很多,從頭打數學基礎需要花費大量時間,人工智能用的多的其實主要是數學分析、高等代數、概率論以及數值分析這幾門課程的知識點,現用現學最好了,遇到不懂的概念和知識點,再去查,慢慢就都會了。研究室沒這么多時間讓你去拿出時間打數學基礎,每天有很多工作,需要閱讀很多論文,匯報論文進度。

 

我認為不需要,任何基於興趣的入門都不是把全套理論學透了才開始干。我是先學的機器學習,然后驚嘆於她邏輯的的精巧,愛上了機器學習,后來自己探索才發現,這些點其實是數學。所以我認為數學是機器學習的靈魂,但我們不需要完整扎實的理論才能去做。


如果是應用,可以先學會實現,現成的應該不難,很多東西都是做着做着才學會,也有可能你都做完了,做過很多遍就懂了。一些基本的數學概念還是要的。。。
如果是搞機器學習基礎算法研發的,這就不用問了,想來你應該不會搞這個

 

數學很重要!數學可以說是目前一切學科發展的基礎。機器學習算法很在程度上都是用數學公式推導出來的,所以不會數學是不行的。當然我們在用機器學習算法時候,如果只是調參的話,確實用不到數學,在實際工作中,很多機器學習工程師都是依靠經驗來做的,真正依靠數學的不多。工業界很多機器學習任務都是利用現有的理論模型和框架進行修改調整來完成的,並不需要特別深的數學功底,只要你能把別人的論文進行復現,能夠達到非常不錯的預期效果。在學術界數學公式是必須的,寫論文沒有數學公式做依據,得出結論總讓人感覺不靠譜,學術界更側重於創新,寫論文時候基本要求都有創新這一點,必須得有一定的創新,否則就難畢業,或者投稿難中。看你是想往那方面發展了,其實也不必專門去拿一本數學書一直看,為避免本末倒置,還是可以先學習機器學習,在學習過程中遇到了哪些公式不理解,專門去尋找資料,在實際應用中學習數學能夠達到更好的效果,專門學習數學可能數學還沒學完就放棄了,或者漸漸忘記學數學的目的。


最低的要求,微積分,線代,概率論

往上還有統計,優化,博弈論


需要,感覺學學高數,概率論,線代也就一個多月吧,主要是把公式推推。

 

 


機器學習是一個多學科交雜的領域,涉及概率論、統計學、計算機、算法等,對於數學需要一定基礎,比如在選擇哪種算法,要考慮模型復雜度、參數選擇、特征選擇,估計參數的置信區間等等,都需要數學理論基礎來解答。機器學習這個方向要做好是需要扎實的理論來實現,但是如果要入門機器學習不需要對數學有很大的恐懼,干中學也是一個方法,用到哪些理論深入學習,多做復盤,慢慢完善個人的理論體系,簡言之,要做好是一定需要扎實的基礎的。
處。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM