1 import numpy as np 2 from sklearn.datasets import make_moons 3 import matplotlib.pyplot as plt 4 # 手動生成一個隨機的平面點分布,並畫出來 5 np.random.seed(0) 6 X, y = make_moons(200, noise=0.20) 7 plt.scatter(X[:,0], X[:,1], s=40, c=y, cmap=plt.cm.Spectral) 8 plt.show()
解釋一下make_moons 是生成數據用的
sklearn.datasets.make_moons(n_samples=100, shuffle=True, noise=None, random_state=None)
主要參數作用如下:n_numbers
:生成樣本數量shuffle
:是否打亂,類似於將數據集random
一下noise
:默認是false
,數據集是否加入高斯噪聲random_state
:生成隨機種子,給定一個int
型數據,能夠保證每次生成數據相同。
定義一個邊界決策函數
1 # 咱們先頂一個一個函數來畫決策邊界 2 def plot_decision_boundary(pred_func): 3 4 # 設定最大最小值,附加一點點邊緣填充 5 x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5 6 y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5 7 h = 0.01 8 9 xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h)) 10 11 # 用預測函數預測一下 12 Z = pred_func(np.c_[xx.ravel(), yy.ravel()]) 13 Z = Z.reshape(xx.shape) 14 15 # 然后畫出圖 16 plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral) 17 plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Spectral)
meshgrid函數
通常使用在數據的矢量化上。
它適用於生成網格型數據,可以接受兩個一維數組生成兩個二維矩陣,對應兩個數組中所有的(x,y)對。
由上面的示例展示可以看出,meshgrid的作用是:
根據傳入的兩個一維數組參數生成兩個數組元素的列表。
如果第一個參數是xarray,維度是xdimesion,
第二個參數是yarray,維度是ydimesion。
那么生成的第一個二維數組是以xarray為行,共ydimesion行的向量;
而第二個二維數組是以yarray的轉置為列,共xdimesion列的向量。
然后使用它
1 from sklearn.linear_model import LogisticRegressionCV 2 #咱們先來瞄一眼邏輯斯特回歸對於它的分類效果 3 clf = LogisticRegressionCV() 4 clf.fit(X, y) 5 6 # 畫一下決策邊界 7 plot_decision_boundary(lambda x: clf.predict(x)) 8 plt.title("Logistic Regression") 9 plt.show()
clf.fit(X, y):用訓練數據來擬合模型
clf.predict(x) 用訓練好的分類器去預測x數據的標簽[1](返回的值是一個概率)
1,rand 生成均勻分布的偽隨機數。分布在(0~1)之間
主要語法:rand(m,n)生成m行n列的均勻分布的偽隨機數
rand(m,n,'double')生成指定精度的均勻分布的偽隨機數,參數還可以
是'single'
rand(RandStream,m,n)利用指定的RandStream(我理解為隨機種子)生成偽
隨機數
2,randn 生成標准正態分布的偽隨機數(均值為0,方差為1)
主要語法:和上面一樣