數據降維_矩陣分析筆記


1、線性代數的正確打開的方式,解方程,從行視圖的角度

2、線性代數的正確打開的方式,解方程,從列視圖的角度

 

3、矩陣的線性相關和線性無關

一個矩陣是由多個向量組成的,如果這些向量通過乘以一個系數,然后再相加后等於零,也就是說,存在至少一個向量,可以由其余向量表示出來,就說這些向量是線性相關的。

因為A矩陣中的向量是線性相關的,所以僅僅由前兩個向量就可以表示(第三個向量可以由前兩個線性表示,第三個沒有必要存在),因此它們就是子空間的一組基,當然還有其他的基。

以矩陣A 為例,列向量有3個元素,所以列空間是R3,也就是三維空間,C(A) 是矩陣A 所有的線性組合,因為這兩個向量所有的組合只能表示一個平面,所以說C(A) 是R3的一個子空間。

如果矩陣A 存在另一個向量,並且這個向量不與前兩個向量組成的平面共面,那么這三個向量就不是線性相關的,因為任意兩個向量都不可能線性組合出逃離該子空間的向量。

 

 

 4、特征向量的意義

一個矩陣和一個向量相乘,幾何意義就是對這個向量,進行旋轉+伸縮操作,當沒有旋轉,或者旋轉后的向量和原向量共線,此時的伸縮程度就是特征向量λ

優化問題

比如影響房價的因素有很多,假設為d個因素,給定樣本X=[x1,x2,x3......xn],則矩陣為d×N,現在是要降維到d`,即d×N → d`×N

因此WT應該是 d`×d 的矩陣,則W ∈ d × d`

降維后 Zn ∈ d`×d × d × 1 = d` × 1

如何找到W

假設原來數據的維度是2,現在要降維到1,就是將平面坐標系中的每個點,投影到X或者Y軸上,就實現了降維。其余類推。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM