這些天看論文用到了圖的Laplace 矩陣,准備來總結一下:
1.from: A co-regularization approach to semi-supervised learning with multiple views
設一個圖$G$的鄰接矩陣(similarity matrix)是 $W$,這里$W_{ij}\ge 0$表示數據點$x_i$和$x_j$之間的相似性。
圖$G$的Laplace 矩陣定義為:
\[ L=D-W\]
這里$D$是對角矩陣,$D_{ii}=\sum_jW_{ij}$
對於定義在圖頂點集上的函數,圖Laplace矩陣是一個半正定算子。它提供了如下的光滑泛函:
\[g^TLg=\frac{1}{2}\sum_{ij}(g_i-g_j)^2W_{ij}\text{論文原公式可能有錯} \]
這里 $g$ 是一個向量,確定了一個定義在圖 $G$ 上的函數,此函數在頂點 $i$ 處的取值為 $g_i$
2. from: semi-weighted multiple kernel learning for graph-based clustering and semi-supervised classification
設圖相似性矩陣 $S$ 是非負的,即$S_{ij}\ge 0$(矩陣的每個元非負),則圖的 Laplace 矩陣為$L=D-S$,它們有如下重要poperty [Mohar et al, 1991]:
The multiplicity $c$ of the eigenvalue 0 of the Laplacian matrix $L$ is equal to the number of connected components in the graph associated with $S$
3. from: Laplace matrix wikipedia
Laplace 矩陣有如下性質:
L 是對稱的
L是半正定的(可由 L 對稱,以及 L 對角占優證明)
L 是一個 M 矩陣
L 的每一行的行和為0
對 L 的特征值: $\lambda_0\le\lambda_1<\dots\le \lambda_{n-1}$, 有$\lambda_0=0$,由於$L v_0= 0$, 對$v_0=(1,1,\dots,1)^T$,由此 Laplace matrix 是奇異的。
For a graph with multiple connected components, L is a block diagonal matrix, where each block is the respective Laplacian matrix for each component, possibly after reordering the vertices (i.e. L is permutation-similar to a block diagonal matrix).
