決策邊界用python實現


1 import numpy as np
2 from sklearn.datasets import make_moons
3 import matplotlib.pyplot as plt
4 # 手動生成一個隨機的平面點分布,並畫出來
5 np.random.seed(0)
6 X, y = make_moons(200, noise=0.20)
7 plt.scatter(X[:,0], X[:,1], s=40, c=y, cmap=plt.cm.Spectral)
8 plt.show()

 解釋一下make_moons 是生成數據用的

sklearn.datasets.make_moons(n_samples=100, shuffle=True, noise=None, random_state=None)

主要參數作用如下:
n_numbers:生成樣本數量
shuffle:是否打亂,類似於將數據集random一下
noise:默認是false,數據集是否加入高斯噪聲
random_state:生成隨機種子,給定一個int型數據,能夠保證每次生成數據相同。

 定義一個邊界決策函數

 1 # 咱們先頂一個一個函數來畫決策邊界
 2 def plot_decision_boundary(pred_func):
 3  
 4     # 設定最大最小值,附加一點點邊緣填充
 5     x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
 6     y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
 7     h = 0.01
 8  
 9     xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))
10  
11     # 用預測函數預測一下
12     Z = pred_func(np.c_[xx.ravel(), yy.ravel()])
13     Z = Z.reshape(xx.shape)
14  
15     # 然后畫出圖
16     plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral)
17     plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Spectral)

meshgrid函數

通常使用在數據的矢量化上。

它適用於生成網格型數據,可以接受兩個一維數組生成兩個二維矩陣,對應兩個數組中所有的(x,y)對。

 

 

由上面的示例展示可以看出,meshgrid的作用是:

根據傳入的兩個一維數組參數生成兩個數組元素的列表。

如果第一個參數是xarray,維度是xdimesion,

第二個參數是yarray,維度是ydimesion。

那么生成的第一個二維數組是以xarray為行,共ydimesion行的向量;

而第二個二維數組是以yarray的轉置為列,共xdimesion列的向量。

然后使用它

1 from sklearn.linear_model import LogisticRegressionCV
2 #咱們先來瞄一眼邏輯斯特回歸對於它的分類效果
3 clf = LogisticRegressionCV()
4 clf.fit(X, y)
5  
6 # 畫一下決策邊界
7 plot_decision_boundary(lambda x: clf.predict(x))
8 plt.title("Logistic Regression")
9 plt.show()
clf.fit(X, y):用訓練數據來擬合模型
clf.predict(x) 用訓練好的分類器去預測x數據的標簽[1](返回的值是一個概率)

1,rand 生成均勻分布的偽隨機數。分布在(0~1)之間
主要語法:rand(m,n)生成m行n列的均勻分布的偽隨機數
rand(m,n,'double')生成指定精度的均勻分布的偽隨機數,參數還可以
是'single'
rand(RandStream,m,n)利用指定的RandStream(我理解為隨機種子)生成偽
隨機數

2,randn 生成標准正態分布的偽隨機數(均值為0,方差為1)
主要語法:和上面一樣


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM