1. 標准化(Standardization or Mean Removal and Variance Scaling)
變換后各維特征有0均值,單位方差。也叫z-score規范化(零均值規范化)。計算方式是將特征值減去均值,除以標准差。
sklearn.preprocessing.scale(X)
一般會把train和test集放在一起做標准化,或者在train集上做標准化后,用同樣的標准化器去標准化test集,此時可以用scaler
1 scaler = sklearn.preprocessing.StandardScaler().fit(train) 2 scaler.transform(train) 3 scaler.transform(test)
實際應用中,需要做特征標准化的常見情景:SVM
2. 最小-最大規范化
最小-最大規范化對原始數據進行線性變換,變換到[0,1]區間(也可以是其他固定最小最大值的區間)
1 min_max_scaler = sklearn.preprocessing.MinMaxScaler() 2 min_max_scaler.fit_transform(X_train)
3.規范化(Normalization)
規范化是將不同變化范圍的值映射到相同的固定范圍,常見的是[0,1],此時也稱為歸一化。《機器學習》周志華
將每個樣本變換成unit norm。
1 X = [[ 1, -1, 2],[ 2, 0, 0], [ 0, 1, -1]] 2 sklearn.preprocessing.normalize(X, norm='l2')
得到
1 array([[ 0.40, -0.40, 0.81], [ 1, 0, 0], [ 0, 0.70, -0.70]])
可以發現對於每一個樣本都有,0.4^2+0.4^2+0.81^2=1,這就是L2 norm,變換后每個樣本的各維特征的平方和為1。類似地,L1 norm則是變換后每個樣本的各維特征的絕對值和為1。還有max norm,則是將每個樣本的各維特征除以該樣本各維特征的最大值。
在度量樣本之間相似性時,如果使用的是二次型kernel,需要做Normalization
4. 特征二值化(Binarization)
給定閾值,將特征轉換為0/1
1 binarizer = sklearn.preprocessing.Binarizer(threshold=1.1) 2 binarizer.transform(X)
5. 標簽二值化(Label binarization)
lb = sklearn.preprocessing.LabelBinarizer()
6. 類別特征編碼
有時候特征是類別型的,而一些算法的輸入必須是數值型,此時需要對其編碼。
1 enc = preprocessing.OneHotEncoder() 2 enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]]) 3 enc.transform([[0, 1, 3]]).toarray() #array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])
上面這個例子,第一維特征有兩種值0和1,用兩位去編碼。第二維用三位,第三維用四位
7.標簽編碼(Label encoding)
1 le = sklearn.preprocessing.LabelEncoder() 2 le.fit([1, 2, 2, 6]) 3 le.transform([1, 1, 2, 6]) #array([0, 0, 1, 2]) 4 #非數值型轉化為數值型 5 le.fit(["paris", "paris", "tokyo", "amsterdam"]) 6 le.transform(["tokyo", "tokyo", "paris"]) #array([2, 2, 1])
8.特征中含異常值時
sklearn.preprocessing.robust_scale
9.生成多項式特征
這個其實涉及到特征工程了,多項式特征/交叉特征。
1 poly = sklearn.preprocessing.PolynomialFeatures(2) 2 poly.fit_transform(X)