AI,大數據學習


准備學習大數據的,先按照自己的學習習慣進行知識儲備,看看自己能夠堅持多長時間吧?

一、高等數學知識

1、常數e,

  e=2.71828

  努力回想老師的教導,e的用法很多,最初的印象是對數log^e簡寫成ln^e,然后這個字符在高中、大學數學出現很多,並且在考試中套用各種公式。

2、導數

  對導數的記憶就是求導吧,導函數有點印象,多元函數求導好像是大學學的,似乎沒學會過(公式背不下來)各種函數的連續性,變化率等都可以用導數描述。

3、梯度

  梯度的概念應該在極限的學習中涉獵,記得之前看神經網絡學習的材料是,對深度學習的證明就是用梯度的概念進行建模的(詳細沒記住),不過在這個梯度的應用上用了方向的概念,延伸出向量的知識領域。

4、泰勒-Taylor

  泰勒不等式,忘了,反正這幫老數學家給我們留下了寶貴的知識財富,也給我們預留了厚厚的作業.....[2018-10-9]

泰勒級數:

 

 

 

 

5、gini系數

  大家聽到最多的就是基尼系數,到底是衡量社會財富分配是否公平,體現社會財富差距和穩定性的一個方式。是計算方式就是A/(A+B),A,B均表示顏色塊的面積。具體怎么用還不清楚,初步學習應該跟模型建模相關吧。  

 6、對數

  覺得有必要在回憶下對數的概念。

  如果a的x次方等於N(a>0,且a不等於1),那么數x叫做以a為底的N的對數(logarithm),記作x=logaN。其中,a叫做對數的底數,N叫做真數。

  稱以10為底的對數叫做常用對數(common logarithm),並記為lg

  稱以無理數e(e=2.71828...)為底的對數稱為自然對數(natural logarithm),並記為ln

  函數y=logax(a>0&a<>1)叫做對數函數,其中x是自變量。對數函數的定義域是(>0)

  基本性質:過定點(1,0),即x=1時,y=0;當0<a<1時,在正無窮上是減函數;當a>1,在正無窮上是增函數。

  對數函數運算法則:1、loga(MN)=logaM+logaN

  2、loga(M/N)=logaM-logaN

  3、logaM^n=nlogaM

  4、loga^nM=logaM/n

  換底公式

 7、梯度下降

  梯度下降主要為微分的概念,場景人從山頂下山,但不知道方向,不知道怎么確定到谷底。通過判斷該人每步步長的下降高度。數學公式的求證,應用都在理想場景,所以在學習過程中千萬糾結公式字面和實際情況。理解透了就可以。

  盡管梯度下降為機器學習的關鍵,本次不強求自己吃透。

8、牛頓法:准確說應該為牛頓迭代法,近似求解方程的方法。使用函數f(x)的泰勒級數的前面幾項來尋解方程的f(y)=0的根。

學習參考鏈接:https://www.zhihu.com/question/20690553   ;https://www.cnblogs.com/shixiangwan/p/7532830.html

 二、概率論

微積分與逼近論;極限,微分,積分基本概念;利用逼近的思想理解微分,利用積分的方式理解概率;概率論基礎。

感覺學的還行,但是讓我用一口氣講出來,就比較難了,本次先不糾結這些內容。

 

截圖是從一個培訓課程文件截圖,如果涉及到其他問題,煩請聯系我。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM