吳恩達《深度學習》第一門課(2)神經網絡的編程基礎


2.1二分類

(1)以一張三通道的64×64的圖片做二分類識別是否是毛,輸出y為1時認為是貓,為0時認為不是貓:

y輸出是一個數,x輸入是64*64*3=12288的向量。

(2)以下是一些符號定義(數據集變成矩陣之后進行矩陣運算代替循環運算,更加高效)

x:表示一個nx維數據,維度為(nx,1)

y:表示輸出結果,取值為(0,1);

(x(i),y(i)):表示第i組數據;

X=[x(1),x(2),……,x(m)]:表示按列將所有的訓練數據集的輸入值堆疊成一個矩陣;其中m表示樣本數目;

Y=[y(1),y(2),……,y(m)]:表示所有輸入數據集對於的輸出值,其維度為1×m;

2.2邏輯回歸

(1)邏輯回歸的輸出值是一個概率,算法思想如下:

(2)激活函數使用sigmoid,它使得輸出值限定在0到1之間,符合概率的取值。

(3)關於偏置項(偏差)b,可將其變成θ0,對應的x0恆定為1,如下所示:

2.3邏輯回歸的代價函數

(1)損失函數(針對單個樣本):

(2)代價函數(針對全部訓練樣本):

2.4梯度下降法

(1)下圖中左邊為凸函數,右邊為非凸函數,邏輯回歸中代價函數為凸函數,故任意的初始化都能收斂到最優點:

(2)參數w、b的更新方式:

2.5導數

導數即斜率。

2.6跟多的導數例子

記住一些常見的導數求法或者直接查看導數表。

2.7計算圖

(1)下圖展示計算圖計算的過程:

(2)正向傳播用於計算代價函數

2.8計算圖的導數計算

(1)反向傳播利用鏈式法則來進行求導,如對a進行求導,其鏈式法則公式為:

2.9邏輯回歸中的梯度下降

針對於單個樣本

(1)計算圖如下:

(2)首先計算da:

(3)然后計算dz:

(4)最后計算dw,db(下面的式子其實已經對所有樣本進行的求導):

2.10m個樣本的梯度下降法

(1)以下代碼顯示了對整個數據集的一次迭代

(2)以上過程會有兩個循環,一個循環是循環是遍歷樣本,第二個循環是當w很多時是要循環的,上面之寫出了兩個w,所以沒體現出來。

2.11向量化

(1)使用循環的方式計算:ωTx

(2)使用向量的方式

后者不僅書寫簡單,更重要的是計算速度可以比前者快特別多。

2.12向量化的更多例子

(1)消除w帶來的循環

設置u=np.zeros(n(x),1)來定義一個x行的一維向量,從而替代循環,僅僅使用一個向量操作dw=dw+x(i)dz(i),最后我們得到dw/m。

2.13向量化邏輯回歸

(1)將樣本x橫向堆疊,形成X,同時根據python的廣播性質(把實數b變成了(1,m)維),得到:

(2)繼續利用Python的計算方法,得到A:

2.14向量化logistic回歸的梯度輸出

(1)沒有用向量化時使用的代碼:

(2)使用向量化之后的代碼:

其中前面五個式子完成了前向和后向的傳播,也實現了對所有訓練樣本進行預測和求導,再利用后兩個式子,梯度下降更新參數。另外如果需要多次迭代的話,還是需要用到一個循環的,那是避免不了的。

2.15Python中的廣播

(1)下圖形象的總結了Python中的廣播

(2)在Python的numpy中,axis=0是按照列操作,axis=1,是按照行操作,這一點需要注意。

2.16關於python_numpy向量的說明

(1)使用a=np.random.randn(5)生成的數據結構在python中稱為一維數組,它既不是行向量也不是列向量,用a.shape的結果是(5,)這表示它是一個一維向量,a和它的轉置相乘其實得到的是一個數。

 

(2)應該使用a=np.random.randn(5,1)這樣生成的是一個行向量,它和他的轉置乘積會是一個矩陣:

 2.17Jupyter/iPython Notebooks快速入門

2.18(選修)logistics損失函數的解釋

(1)首先需要明確,邏輯回歸的輸出表示y等於1的概率。故有:

(2)合並成一個式子(要使得式子越大越好):

(3)根據對數函數log的單調遞增性,對上式取對數有:

(4)要最大化上式,最小化上式取反,得到一個樣本的損失函數。

(5)所有樣本時,認為樣本間獨立同分布,故聯合概率就是每個樣本的乘積:

(6)兩邊取對數得到:

(7)要最大化上式(最大似然估計)也就是最小化:

總結一下:為了最小化成本函數J(w,b),我們logistic回歸模型的最大似然估計的角度出發,假設訓練集中的樣本都是獨立同分布的條件下。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM