拉普拉斯矩阵的含义

拉普拉斯矩阵的含义

整个图谱理论都是围绕着图的拉普拉斯矩阵为核心进行展开的,其中很多人会有疑问,为什么图的拉普拉斯矩阵的定义为 L=D-W ?

这里先介绍梯度的概念:

梯度:表示一个函数在某一点的方向导数沿该方向取得最大值,假设一个函数 f(x,y) 具有一阶连续偏导数,那么在 (x,y) 处的向量

\nabla f =\frac{\partial{f}}{\partial{x}}\vec{i} + \frac{\partial{f}}{\partial{y}}\vec{j}

表示的是函数 f(x,y) 在该点处的梯度,记为 \nabla{f(x,y)}

拉普拉斯算子(Laplace Operator)是在 N 维欧式空间中的一个二阶微分算子,定义为梯度的散度:

\Delta f = \nabla^{2}f = \nabla \cdot \nabla f ,

表示为:

\Delta f = \frac{\partial^{2}{f}}{\partial{x^{2}}} + \frac{\partial^{2}{f}}{\partial{y^{2}}}

还是以二维函数为例,上面考虑的都是连续状态下,在离散状态下,拉普拉斯算子的形式为:

\Delta f = \frac{\partial^{2}{f}}{\partial{x^{2}}} + \frac{\partial^{2}{f}}{\partial{y^{2}}}

=f(x+1,y)+f(x-1,y)-2f(x,y)+f(x,y+1)+f(x,y-1) - 2f(x,y)

=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1) - 4f(x,y)

根据上述离散状态下拉普拉斯算子的形式,可以认识到拉普拉斯算子的本质其实可以看做是对矩阵中某一点进行微小扰动后获得的收益。


接着将上述结论推广到graph上。

设图 G 具有 n 个节点,每个节点的领域为 N ,图上的函数 f=(f_{1},f_{2},...,f_{n}) ,其中 f_{i} 表示函数 f 在节点 i 处的函数值。对 i 进行扰动,其可能变为任意一个领域内的节点 j \in N_{i} :

\Delta f_{i} = \sum_{j \in N_{i}} (f_{i} - f_{j})

设每一条边 e_{ij} 的权重为 w_{ij} ,]且 w_{ij} = 0 表示 i,j 两个节点不相邻,则有:

\Delta f_{i} = \sum_{j \in N}w_{ij} (f_{i} - f_{j})

=\sum_{j \in N}w_{ij}f_{i} - \sum_{j \in N}w_{ij}f_{j}

=d_{i}f_{i}-w_{i:}f

推广到 G 上的所有节点,我们有:

\Delta f_{i} = \begin{pmatrix} \Delta f_{1} \\ \vdots \\ \Delta f_{n} \end{pmatrix}= \begin{pmatrix} d_{1}f_{1} - w_{1:}f \\ \vdots \\d_{n}f_{n} - w_{n:}f \end{pmatrix}

= \begin{pmatrix} d_{1} & \dots & 0\\ \vdots & \ddots & \vdots \\ 0 & \dots & d_{n} \end{pmatrix}f - \begin{pmatrix} w_{1:} \\ \vdots \\ w_{n:} \end{pmatrix} f

=diag(d_{i})f - Wf

=(W-D)f

=-Lf

经过推导可以发现拉普拉斯矩阵的第 i 行其实是第 i 个节点在产生扰动时对其他节点产生的收益累积。

编辑于 2019-10-08 13:43