通常,我们会遇到数据来自一个嵌入在高维欧氏空间的低维流形的情况。有一些帮助我们找到这些低维嵌入(embedding)的方法,如多维尺度变换(Multiple Dimensional Scaling,MDS),局部线性嵌入(Locally Linear Embedding,LLE),临域保持嵌入(Neighborhood Preserving Projection,NPE),等距离特征映射(ISOMAP),拉普拉斯特征映射(Laplacian Eigenmap,LE),等等。
多维尺度变换(MDS)
给定 n 个训练样本以及它们对应的距离矩阵 D,其元素 dij 是第 i 个样本和第 j 个样本的距离。假设 n 个样本的内积矩阵是 B。我们可以在给定 D 的情况下计算 B,反过来也是对的。
MDS 的核心思想是在低维的 embedding 中保持样本之间的距离。因此,假设 embedding 的数据矩阵是 Z,那么 ZZT 需要尽可能接近 B。
为此,我们对 B 做一个特征值分解,
B=VΛVT,
那么
Z=VrΛr21
就是一个很好的近似,同时满足 embedding 的各列之间正交。
局部线性嵌入(LLE)
LLE 的思想是在降维时尽可能保持局部结构。
对于任一样本,LLE 首先寻找一个它的邻居样本的仿射组合(affine combination),使得这个组合能尽可能地重建该样本。随后,重建每个样本的仿射组合系数可以构成一个权重矩阵 W,其中 Wij 是第 j 个样本重建第 i 个样本的权重,注意 Wij=0 如果 j 不是 i 的邻居。这里,邻居由 k 近邻方法来决定。
随后,LLE 求解下式的优化问题(注意,这里 Z 的):
Zminsubject totr(ZT(I−W)T(I−W)Z)ZZT=I.
临域保持嵌入(NPE)
NPE 可以看作是 LLE 的线性近似版本。它寻找一个线性投影方向来完成从 X 到 Z 的转换:
aminsubject totr(aTX(I−W)T(I−W)XTa)aTXXTa=1.
易得 a 为下面的广义特征向量问题的最小特征值对应的特征向量:
XMXTa=λXXTa,
后续的其它 embedding 投影方向可以由剩下的和最小特征值对应的广义特征向量求得。
等距离特征映射(ISOMAP)
顾名思义,ISOMAP 尝试保持样本点之间的度量(距离)。
ISOMAP 的算法步骤如下:
- 使用 kNN 构建一个无向图,其中图的连接权重是样本点在原始空间的距离。
- 使用 Dijkstra 算法寻找图上每一对样本之间的最短距离。把这个两两之间的距离作为流形上样本之间的测地线距离(geodesdic distance)。
- 基于这个距离,采用 MDS 算法来计算低维 embedding。
拉普拉斯特征映射(LE)
考虑这个一个问题:把一个带权无向图 G 映射到一条线上,并让相连接的节点尽可能接近,以保持图的结构从而保持流形的局部结构)。图上有较大连接权重的两个节点应该有更小的距离。基于这个思想,我们可以得到下面的优化问题。
21i,j∑wij(yi−yj)2=yTLy,
其中,yi 是第 i 个样本点在线上的位置,L 是图拉普拉斯矩阵。
为了对上面的目标函数做优化,我们需要加一些限定条件,
yTDy=1.
这个限定条件把图上各个节点的重要性因素考虑在内。
随后,我们就可以得到 LE 的优化问题:
Yminsubject totr(YTLY)YTDY=IYTD1=0.
最后一个等式约束是为了除去这个问题的一个平凡解,即常数向量。上面这个优化问题的解是下述广义特征向量问题的最小的特征值对应的特征向量(除去平凡特征值 0)
Ly=λDy.
样本外扩展
LE 的一个不足是它不能应用到图之外的样本上。为了解决这个问题,我们可以采用流形约束的框架对其做样本外扩展:
f∈HKminsubject toγ∥f∥HK2+fTLffTDf=1fTD1=0.
这里,我们假设映射是一个函数,这个函数来自于核函数 K 所诱导的再生核希尔伯特空间。基于表示定理,这个优化问题有下面形式的解:
f∗(x)=i=1∑NαiK(xi,x).
因此,f=Kα。进一步地,我们假设图拉普拉斯矩阵 L 是归一化之后的,即 L~=I−D1/2WD1/2 且 D~=I。那么,我们有
α∈RNminsubject toγαTKα+αTKLKααTK2α=11TKα=0.
这是一个二次项约束二次规划 (QCQP) 问题。