降维

背景

解决过拟合的方法有:

  • 正则化

  • 添加数据

  • 降维

维度过高会造成维度灾难,维度灾难是造成过拟合的主要原因。在不充足的数据情况下,主要采用降维的方法。

从几何的角度来看维度灾难:

nn 维球的体积为:

CRnCR^n

那么在球体积与边长为 2R2R 的超立方体比值为:

limn0CRn2nRn=0\lim\limits_{n\rightarrow0}\frac{CR^n}{2^nR^n}=0

这就是所谓的维度灾难,在高维数据中,主要样本都分布在立方体的边缘,所以数据集更加稀疏。

降维的方法有:

  • 直接降维:特征选择

  • 线性降维:PCA、MDS等

  • 非线性降维:流形(lsomap、LLE等)

样本均值&样本方差矩阵

假设数据集X={x1,x2,,xN}X=\{x_1,x_2,\cdots,x_N\}xiR,i=1,2,,Nx_i\in\mathbb{R},i=1,2,\cdots,N,记为:

X=(x1,x2,,xN)T=[x1Tx2TxNT]N×p=[x11x12x1px21x22x2pxN1xN2xNp]N×p\begin{align} X&=(x_1,x_2,\cdots,x_N)^T \\ &= \begin{bmatrix} x_{1}^T \\ x_{2}^T \\ \vdots \\ x_{N}^T \\ \end{bmatrix}_{N\times p} \\ & = \begin{bmatrix} x_{11} & x_{12} & \cdots & x_{1p} \\ x_{21} & x_{22} & \cdots & x_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ x_{N1} & x_{N2} & \cdots & x_{Np} \\ \end{bmatrix}_{N\times p} \\ \end{align}

Sample Mean(样本均值):

Xˉp×1=1NNi=1xi=1N(x1,x2,,xN)[111]N×1=1NXtIN\begin{align} \bar X_{p \times 1}&= \frac{1}{N}\sum_N^{i=1}x_i\\ &=\frac{1}{N}(x_1,x_2,\cdots,x_N) \begin{bmatrix} 1 \\ 1 \\ \vdots \\ 1 \\ \end{bmatrix}_{N\times 1} \\ &= \frac{1}{N} X^t \mathbb{I}_N \end{align}

Sample Coveriance(样本协方差):

Sp×p=1NNi=1(xixˉ)(xixˉ)T=1N(x1x,x2x,,xNx)(x1x,x2x,,xNx)T=1N(XT1NXTIN1IN1T)(XT1NXTIN1IN1T)T=1NXT(EN1NIN1I1N)(EN1NIN1I1N)TX=1NXTHNHNTX=1NXTHNHNX=1NXTHX\begin{align} S_{p \times p} &= \frac{1}{N}\sum_N^{i=1}(x_i-\bar x)(x_i-\bar x)^T\\ &=\frac{1}{N}(x_1-\overline{x},x_2-\overline{x},\cdots,x_N-\overline{x})(x_1-\overline{x},x_2-\overline{x},\cdots,x_N-\overline{x})^T\nonumber\\ &=\frac{1}{N}(X^T-\frac{1}{N}X^T\mathbb{I}_{N1}\mathbb{I}_{N1}^T)(X^T-\frac{1}{N}X^T\mathbb{I}_{N1}\mathbb{I}_{N1}^T)^T\nonumber\\ &=\frac{1}{N}X^T(E_N-\frac{1}{N}\mathbb{I}_{N1}\mathbb{I}_{1N})(E_N-\frac{1}{N}\mathbb{I}_{N1}\mathbb{I}_{1N})^TX\nonumber\\ &=\frac{1}{N}X^TH_NH_N^TX\nonumber\\ &=\frac{1}{N}X^TH_NH_NX=\frac{1}{N}X^THX \end{align}

这个式子利用了中心矩阵 HH的对称性,这也是一个投影矩阵。

H=EN1NIN1I1NHT=HH2=H...HnH\begin{align} &H = E_N-\frac{1}{N}\mathbb{I}_{N1}\mathbb{I}_{1N} \\ &H^T = H \\ &H^2 = H \\ &... \\ & H^n H \end{align}

线性降维-主成分分析 PCA

即,主成分分析中,基本想法是将所有数据投影到一个字空间中,从而达到降维的目标,为了寻找这个子空间,我们基本想法是:

  1. 所有数据在子空间中更为分散

  2. 损失的信息最小,即:在补空间的分量少

一个中心:对原始特征空间的重构(相关->无关)

两个基本点:最大投影方差,最小重构距离

原来的数据很有可能各个维度之间是相关的,于是希望找到一组 pp 个新的线性无关的单位基 uiu_i ,降维就是取其中的 qq 个基。于是对于一个样本 xix_i,经过这个坐标变换后:

xi^=i=1p(uiTxi)ui=i=1q(uiTxi)ui+i=q+1p(uiTxi)ui\hat{x_i}=\sum\limits_{i=1}^p(u_i^Tx_i)u_i=\sum\limits_{i=1}^q(u_i^Tx_i)u_i+\sum\limits_{i=q+1}^p(u_i^Tx_i)u_i

最大投影方差

对于数据集来说,首先将其中心化然后再去上面的式子的第一项,并使用其系数的平方平均作为损失函数并最大化:

J=1Ni=1Nj=1q((xix)Tuj)2=j=1qujTSuj , s.t. ujTuj=1\begin{align}J&=\frac{1}{N}\sum\limits_{i=1}^N\sum\limits_{j=1}^q((x_i-\overline{x})^Tu_j)^2\nonumber\\ &=\sum\limits_{j=1}^qu_j^TSu_j\ ,\ s.t.\ u_j^Tu_j=1 \end{align}

由于每个基都是线性无关的,于是每一个 uju_j 的求解可以分别进行,使用拉格朗日乘子法:

argmaxujL(uj,λ)=argmaxujujTSuj+λ(1ujTuj)\mathop{argmax}_{u_j}L(u_j,\lambda)=\mathop{argmax}_{u_j}u_j^TSu_j+\lambda(1-u_j^Tu_j)

于是:

ujL(uj)=2Suj2λuj)=0有,Suj=λuj\begin{align} &\frac{\partial}{\partial u_j}L(u_j)= 2Su_j-2\lambda u_j)=0 \\ &有,Su_j=\lambda u_j \end{align}

uju_j:S的特征向量,λ\lambda:特征值

最小重构距离

下面看其损失的信息最少这个条件,同样适用系数的平方平均作为损失函数,并最小化:

J=1Ni=1Nj=q+1p((xix)Tuj)2=j=q+1pujTSuj , s.t. ujTuj=1\begin{align}J&=\frac{1}{N}\sum\limits_{i=1}^N\sum\limits_{j=q+1}^p((x_i-\overline{x})^Tu_j)^2\nonumber\\ &=\sum\limits_{j=q+1}^pu_j^TSu_j\ ,\ s.t.\ u_j^Tu_j=1 \end{align}

(原坐标-新坐标)的平方

同样的:

argminujL(uj,λ)=argminujujTSuj+λ(1ujTuj)\mathop{argmin}_{u_j}L(u_j,\lambda)=\mathop{argmin}_{u_j}u_j^TSu_j+\lambda(1-u_j^Tu_j)

损失函数最小取在本征值剩下的个最小的几个值。数据集的协方差矩阵可以写成 $S=U\Lambda U^T$,直接对这个表达式可以得到本征矢。

λ\lambda为最小的,Λ\Lambda为特征值矩阵

SVD 与 PCoA

下面使用实际训练时常常使用的 SVD(奇异值分解) 直接求得这个 qq 个本征矢。

对中心化后的数据集进行奇异值分解:

HX=UΣVT,UTU=EN,VTV=Ep,Σ:N×pHX=U\Sigma V^T,U^TU=E_N,V^TV=E_p,\Sigma:N\times p

HXHX是中心化后的矩阵

于是:

Sp×p=1NXTHX=1NXTHTHX=1NVΣTΣVTS_{p\times p}=\frac{1}{N}X^THX=\frac{1}{N}X^TH^THX=\frac{1}{N}V\Sigma^T\Sigma V^T

因此,直接对中心化后的数据集进行 SVD,就可以得到特征值和特征向量 VV,在新坐标系中的坐标就是:

HXV=UΣHX\cdot V = U\Sigma

由上面的推导,可以得到另一种方法 PCoA 主坐标分析,定义并进行特征值分解:

TN×N=HXXTH=UΣΣTUTT_{N\times N}=HXX^TH=U\Sigma\Sigma^TU^T

可知,TT SS有相同的eigen value(特征值)

S:特征分解,得到方向(主成分),然后HXV->坐标

T:特征分解,直接得到坐标(主坐标分析/PCoA)

由于:

TUΣ=UΣ(ΣTΣ)TU\Sigma=U\Sigma(\Sigma^T\Sigma)

于是可以直接得到坐标。这两种方法都可以得到主成分,但是由于方差矩阵是 p×pp\times p 的,而 TT N×NN\times N 的,所以对样本量较少的时候可以采用 PCoA的方法。

PCA求解步骤:
1. u1
2. 去中心化(xi-x_mean)u1 -> zi

p-PCA

下面从概率的角度对 PCA 进行分析,概率方法也叫 p-PCA。使用线性模型,类似之前 LDA,选定一个方向,对原数据 xRpx\in\mathbb{R}^p ,降维后的数据为 zRq,q<pz\in\mathbb{R}^q,q<p。降维通过一个矩阵变换(投影)进行:

线性高斯模型:zN(Oq1,Iqq)x=Wz+μ+εεN(0,σ2Ipp)εzE(xz)=E(Wz+μ+ε)=Wz+μVar[x]=Var[Wz+μ+ε]=σ2IxzN(Wz+μ,σ2I)\begin{align} 线性高斯模型:\\ z&\sim\mathcal{N}(\mathbb{O}_{q1},\mathbb{I}_{qq})\\ x&=Wz+\mu+\varepsilon\\ \varepsilon&\sim\mathcal{N}(0,\sigma^2\mathbb{I}_{pp})\\ \varepsilon& \perp z \\ E&(x|z) = E(Wz+\mu+\varepsilon) = Wz+\mu \\ V&ar[x]=Var[Wz+\mu+\varepsilon] = \sigma^2\mathbb{I}\\ x&|z \sim N(Wz+\mu,\sigma^2\mathbb{I}) \\ \end{align}

p-PCA问题有两个:

  • inference:p(zx)p(z|x)

  • learing(求参数):wμσ2w,\mu,\sigma^2

对于这个模型,可以使用期望-最大(EM)的算法进行学习,在进行推断的时候需要求得 p(zx)p(z|x),推断的求解过程和线性高斯模型类似。

p(zx)=p(xz)p(z)p(x)E[x]=E[Wz+μ+ε]=E[Wz+μ]+E[ε]=μVar[x]=Var[Wz+μ+ε]            =Var[Wz]+Var[μ]+Var[ε]            =WIqqWT+σ2Ipp            =WWT+σ2I,xN(μ,WWT+σ2I)\begin{align} &p(z|x)=\frac{p(x|z)p(z)}{p(x)}\\ &\mathbb{E}[x]=\mathbb{E}[Wz+\mu+\varepsilon]=\mathbb{E}[Wz+\mu]+E[\varepsilon]=\mu\\ &Var[x]=Var[Wz+\mu+\varepsilon]\\ & \ \ \ \ \ \ \ \ \ \ \ \ =Var[Wz]+Var[\mu]+Var[\varepsilon]\\ & \ \ \ \ \ \ \ \ \ \ \ \ =W\cdot\mathbb{I_{qq}}\cdot W^T+\sigma^2\mathbb{I}_{pp}\\ & \ \ \ \ \ \ \ \ \ \ \ \ =WW^T+\sigma^2\mathbb{I}\\ &有,x\sim N(\mu,WW^T+\sigma^2\mathbb{I}) \end{align}

接下来求zz 的后验

记,x=(xaxb)有,xN[(μaμb)(ΣaaΣabΣbaΣbb)]于是,         xba=xbΣbaΣaa1xa         μba=μbΣbaΣaa1μa         Σbba=ΣbaΣbaΣaa1Σab,    xbaN(μba,Σbba)又      xb=xba+ΣbbaΣaa1xa         E(xbxa)=E(xba)+ΣbbaΣaa1xa                           =μba+ΣbbaΣaa1xa                           =μb+ΣbbaΣaa1(xaμa)         Var(xbxa)=Var(xba)=Σbba,    xbxaN(μb+ΣbbaΣaa1(xaμa),Σbba)\begin{align} &记,x=\begin{pmatrix}x_{a}\\x_{b}\end{pmatrix}\\ &有,x\sim N[\begin{pmatrix}\mu_{a}\\\mu_{b}\end{pmatrix} \begin{pmatrix}\Sigma_{aa}&\Sigma_{ab}\\\Sigma_{ba}&\Sigma_{bb}\end{pmatrix}] \\ &于是, \\ & \ \ \ \ \ \ \ \ \ x_{b\cdot a} =x_b - \Sigma_{ba}\Sigma_{aa}^{-1}x_a \\ & \ \ \ \ \ \ \ \ \ \mu_{b\cdot a} =\mu_b - \Sigma_{ba}\Sigma_{aa}^{-1}\mu_a \\ & \ \ \ \ \ \ \ \ \ \Sigma_{bb\cdot a} =\Sigma_{b\cdot a} - \Sigma_{ba}\Sigma_{aa}^{-1}\Sigma_{a\cdot b} \\ & 有, \ \ \ \ x_{b\cdot a}\sim N(\mu_{b\cdot a},\Sigma_{bb\cdot a}) \\ &又 \ \ \ \ \ \ x_{b}=x_{b\cdot a}+\Sigma_{bb\cdot a}\Sigma_{aa}^{-1}x_a \\ & \ \ \ \ \ \ \ \ \ E(x_b|x_a)=E(x_{b\cdot a})+ \Sigma_{bb\cdot a}\Sigma_{aa}^{-1}x_a \\ & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = \mu_{b\cdot a}+\Sigma_{bb\cdot a}\Sigma_{aa}^{-1}x_a \\ & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = \mu_{b}+\Sigma_{bb\cdot a}\Sigma_{aa}^{-1}(x_a-\mu_a) \\ & \ \ \ \ \ \ \ \ \ Var(x_b|x_a)=Var(x_{b\cdot a}) = \Sigma_{bb\cdot a}\\ & 有, \ \ \ \ x_b|x_a\sim N(\mu_{b}+\Sigma_{bb\cdot a}\Sigma_{aa}^{-1}(x_a-\mu_a),\Sigma_{bb\cdot a}) \\ \end{align}

由上可知,

记,(xz)N[(μ0)(WWT+σ2IΔΔI)]求解,Δ由于Δ=Cov(x,z)=Cov(z,x),求解一个即可Cov(x,z)=E[(xμ)(z0)T]=E[(xμ)zT]                 =E[(Wz+ε)zT]=E[WzzT+εzT]                 =E[WzzT]+E[εzT]                 =WE[zzT]=WI求出后,有(xz)N[(μ0)(WWT+σ2IWIWII)]即可套公式求出p(zx)\begin{align} &记,\begin{pmatrix}x\\z\end{pmatrix} \sim N[\begin{pmatrix}\mu\\0\end{pmatrix} \begin{pmatrix}WW^T+\sigma^2\mathbb{I}&\Delta\\\Delta&\mathbb{I}\end{pmatrix}] \\ &求解,\Delta\\ &由于\Delta=Cov(x,z)=Cov(z,x),求解一个即可 \\ & Cov(x,z) = E[(x-\mu)(z-0)^T] = E[(x-\mu)z^T]\\ &\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = E[(Wz+\varepsilon)z^T] = E[Wzz^T+\varepsilon z^T] \\ &\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = E[Wzz^T]+E[\varepsilon z^T] \\ &\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = WE[zz^T] = W\cdot \mathbb{I}\\ & 求出后,有\begin{pmatrix}x\\z\end{pmatrix} \sim N[\begin{pmatrix}\mu\\0\end{pmatrix} \begin{pmatrix}WW^T+\sigma^2\mathbb{I}&W\cdot \mathbb{I}\\W\cdot \mathbb{I}&\mathbb{I}\end{pmatrix}] \\ &即可套公式求出p(z|x) \end{align}
即,p(zx)=N(WT(WWT+σ2I)1(xμ),IWT(WWT+σ2I)1W)即,p(z|x)=\mathcal{N}(W^T(WW^T+\sigma^2\mathbb{I})^{-1}(x-\mu),\mathbb{I}-W^T(WW^T+\sigma^2\mathbb{I})^{-1}W)

小结

降维是解决维度灾难和过拟合的重要方法,除了直接的特征选择外,还可以采用算法的途径对特征进行筛选,线性的降维方法以 PCA 为代表,在 PCA 中,只要直接对数据矩阵进行中心化然后求奇异值分解或者对数据的协方差矩阵进行分解就可以得到其主要维度。非线性学习的方法如流形学习将投影面从平面改为超曲面。

最后更新于

这有帮助吗?