这些天看论文用到了图的Laplace 矩阵,准备来总结一下:
1.from: A co-regularization approach to semi-supervised learning with multiple views
设一个图$G$的邻接矩阵(similarity matrix)是 $W$,这里$W_{ij}\ge 0$表示数据点$x_i$和$x_j$之间的相似性。
图$G$的Laplace 矩阵定义为:
\[ L=D-W\]
这里$D$是对角矩阵,$D_{ii}=\sum_jW_{ij}$
对于定义在图顶点集上的函数,图Laplace矩阵是一个半正定算子。它提供了如下的光滑泛函:
\[g^TLg=\frac{1}{2}\sum_{ij}(g_i-g_j)^2W_{ij}\text{论文原公式可能有错} \]
这里 $g$ 是一个向量,确定了一个定义在图 $G$ 上的函数,此函数在顶点 $i$ 处的取值为 $g_i$
2. from: semi-weighted multiple kernel learning for graph-based clustering and semi-supervised classification
设图相似性矩阵 $S$ 是非负的,即$S_{ij}\ge 0$(矩阵的每个元非负),则图的 Laplace 矩阵为$L=D-S$,它们有如下重要poperty [Mohar et al, 1991]:
The multiplicity $c$ of the eigenvalue 0 of the Laplacian matrix $L$ is equal to the number of connected components in the graph associated with $S$
3. from: Laplace matrix wikipedia
Laplace 矩阵有如下性质:
L 是对称的
L是半正定的(可由 L 对称,以及 L 对角占优证明)
L 是一个 M 矩阵
L 的每一行的行和为0
对 L 的特征值: $\lambda_0\le\lambda_1<\dots\le \lambda_{n-1}$, 有$\lambda_0=0$,由于$L v_0= 0$, 对$v_0=(1,1,\dots,1)^T$,由此 Laplace matrix 是奇异的。
For a graph with multiple connected components, L is a block diagonal matrix, where each block is the respective Laplacian matrix for each component, possibly after reordering the vertices (i.e. L is permutation-similar to a block diagonal matrix).
