0%

支持向量机

引言

支持向量机(support vector machines,SVM)是一种二分类模型;它的基本模型定义在特征空间上的间隔最大模型分类器,间隔最大使之区别于感知机;同时还可以使用核技巧,使它成为非线性支持向量机;SVM的学习策略就是间隔最大化,等价于正则化的合页函数最小化;支持向量机的学习算法就是求解凸二次规划的最优化算法;

由简至繁的模型分别为

  • 线性可分支持向量机–硬间隔最大化
  • 线性支持向量机–软间隔最大化
  • 非线性支持向量机–核技巧+软间隔最大化

线性可分支持向量机

线性可分支持向量机、线性支持向量机假设输入空间和特征空间的元素一一对应,并将输入空间中的输入映射为特征空间中的特征向量;支持向量机的学习实在特征空间内进行的;

假设训练数据集是线性可分的,且对于样本点(xi,yi)(x_i,y_i),当yi=+1y_i=+1xix_i为正例;当yi=1y_i=-1xix_i为负例;

学习的目标是找到分离超平面wx+b=0,ww\cdot x+b=0,\quad w是法向量,bb为截距,法向量指向的是正类;一般的,训练数据集线性可分时存在无穷多个分离超平面将两类数据正确划分。感知机利用误分类最小策略,求得分离超平面;线性可分支持向量机利用间隔最大化求最优分离超平面;

定义:(线性可分支持向量机)给定线性可分数据集,通过间隔最大化或等价的求解相应的凸二次规划问题学习得到的分离超平面为

wx+b=0w^*\cdot x+b^*=0

相应的决策函数为

f(x)=sign(wx+b)f(x)=sign(w^*\cdot x+b^*)

函数间隔和几何间隔

定义

(函数间隔)给定训练数据集TT和超平面(w,b)(w,b),关于样本点(xi,yi)(x_i,y_i)的函数间隔为

γ^i=yi(wxi+b)\hat\gamma_i=y_i(w\cdot x_i+b)

定义超平面(w,b)(w,b)关于训练数据集TT的函数间隔为超平面(w,b)(w,b)关于TT中所有样本点(xi,yi)(x_i,y_i)的函数间隔最小值,

γ^=mini=1,,Nγ^i\hat \gamma= \min_{i=1,\cdots,N}\hat \gamma_i

函数间隔可以表示分类预测的正确性及确信度,但是选择分离超平面时,只有函数间隔是不够的;如果成比例改变w和b,超平面没有改变但是间隔却变为原来的两倍;

因此我们可以对分离超平面的法向量加某些约束,如规范化,w=1||w||=1,使得间隔是确定的,这时函数间隔为几何间隔

γi=wwxi+bw\gamma_i=\frac w{||w||}\cdot x_i+\frac b{||w||}

定义

(几何间隔)对于给定的训练数据集TT和超平面(w,b)(w,b),定义超平面(w,b)(w,b)关于样本点(xi,yi)(x_i,y_i)的几何间隔为

γi=yi(wwxi+bw)\gamma_i=y_i(\frac w{||w||}\cdot x_i+\frac b{||w||})

定义超平面(w,b)(w,b)关于训练数据集TT的函数间隔为超平面(w,b)(w,b)关于TT中所有样本点(xi,yi)(x_i,y_i)的函数间隔最小值,

γ=mini=1,,Nγi\gamma= \min_{i=1,\cdots,N} \gamma_i

超平面(w,b)(w,b)关于样本点(xi,yi)(x_i,y_i)的几何间隔一般是实例点到朝平面的带符号距离,正确分类时就是实例点到超平面的距离;

函数间隔和几何间隔有如下关系

γi=γ^iwγ=γ^w\gamma_i=\frac{\hat \gamma_i}{||w||}\\ \gamma=\frac{\hat \gamma}{||w||}

如果w=1||w||=1,那么函数间隔和几何间隔相等;

(硬)间隔最大化

支持向量机的基本想法是求解能够正确划分训练数据集并且几何间隔最大的分离超平面。间隔最大化的分离超平面是唯一的,这里的间隔最大化指硬间隔最大化;

间隔最大化最直观的表现对训练数据集找到几何间隔最大的超平面就意味着要以充分大的确信度对数据进行分类;

最大间隔分离超平面

求解间隔最大的分离超平面,可以表示为下面的最优化约束问题:

maxw,bγs.t.yi(w^wxi+bw)γ,i=1,2,,N\max_{w,b} \gamma\\ s.t. \quad y_i(\frac {\hat w}{||w||}\cdot x_i + \frac b{||w||})\geq\gamma,\quad i = 1,2,\cdots,N

表示我们希望最大化超平面(w,b)(w,b)关于训练数据的几何间隔γ\gamma,约束条件表示的超平面(w,b)(w,b)关于每个训练样本点的集合间隔至少γ\gamma;

参考之前集合间隔和函数间隔的关系式,可以将其改写为

maxw,bγ^ws.t.yi(wxi+b)γ^i,i=1,2,,N\max_{w,b}\frac{\hat \gamma}{||w||}\\ s.t. \quad y_i(w\cdot x_i + b)\geq \hat \gamma_i,\quad i=1,2,\cdots,N

由于等比例的改变w,b,γw,b,\gamma也会成比例的变化因此他是一个等价的问题;可以取γ^=1\hat \gamma=1,而且注意最大化1w\frac1{||w||}和最小化12w2\frac12||w||^2是等价的,于是就得到了下面的线性可分支持向量机的最优化问题:

minw,b12w2s.t.yi(wxi+b)10,i=1,2,,N\min_{w,b}\quad \frac12||w||^2\\ s.t.\quad y_i(w\cdot x_i + b)-1\geq0,\quad i=1,2,\cdots,N

这是一个凸二次规划问题;

凸优化问题是指约束最优化问题

minwf(w)s.t.gi(w)0,i=1,2,,khi(w)=1,i=1,2,,l\min_wf(w)\\ s.t.\quad g_i(w)\leq0,\quad i=1,2,\cdots,k\\ h_i(w)=1,\quad i=1,2,\cdots,l

其中,目标函数f(w)f(w)和约束函数gi(w)g_i(w)都是RnR^n上的连续可微的凸函数,约束函数hi(w)h_i(w)RnR^n上的仿射函数。(f(x)f(x)称为仿射函数,如果它满足f(x)=ax+b,aRn,bRn,xRnf(x)=a\cdot x + b,a\in R^n,b\in R^n,x \in R^n

当目标函数f(w)f(w)是二次函数且约束函数gi(w)g_i(w)是仿射函数时,上述最优化问题变成凸二次规划问题;如果求解出了最优化问题的解w,bw^*,b^*,那么就可以得到最大间隔分离超平面wx+b=0w^*\cdot x+ b^*=0及分类决策函数f(x)=sign(w+b)f(x)=sign(w^*+b^*),即线性可分支持向量机;

线性可分支持向量机-最大间隔法-算法

线性可分支持向量机学习算法—最大间隔法

  1. 构造并求解约束最优化问题

minw,b12w2s.t.yi(wxi+b)10,i=1,2,,N(1)\min_{w,b}\quad \frac12||w||^2\\ s.t.\quad y_i(w\cdot x_i+b)-1\geq0,\quad i=1,2,\cdots,N \tag{1}

​ 并求得最优解w,bw^*,b^*;

  1. 由此得到的分离超平面:

wx+b=0w^*\cdot x + b^*=0

​ 分类决策函数

f(x)=sign(wx+b)f(x)=sign(w^*\cdot x+b^*)

线性可分训练数据集的最大间隔分离朝平面存在唯一的

支持向量和间隔边界

线性可分的情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量(support vector),支持向量是使

yi(wxi+b)1=0y_i(w\cdot x_i+b)-1=0

yi=+1y_i=+1的正例点,支持向量在超平面H1:wx+b=1H_1:w\cdot x +b =1;

yi=1y_i=-1的正例点,支持向量在超平面H2:wx+b=1H_2:w\cdot x +b =-1;

其中H1,H2H_1,H_2上的点就是支持向量;

注意到H1,H2H_1,H_2平行,没有实例点落在他们中间,它们之间的距离称为间隔,间隔依赖于分离超平面的法向量ww,等于2w\frac2{||w||},H1,H2H_1,H_2为间隔边界;分离超平面只有支持向量起作用,而其他实例点不会影响分离超平面;由于支持向量在确定分离超平面起到决定性的作用,因此这种分类模型叫做支持向量机,支持向量的个数一般很少,所以支持向量由”很少的重要的“训练样本确定;(支持向量机的命名)

学习的对偶算法

求解线性可分支持向量机的最优化问题(1)可以作为原始最优化问题,应用拉格朗日对偶性可以通过求解对偶问题来得到原始问题的最优解;对偶问题往往更容易求解,而且自然的引入核函数,以便于推广到非线性问题;

首先构建拉格朗日函数,对于每一个约束条件引入拉格朗日乘子**ai0,i=1,2,,Na_i\geq0,i=1,2,\cdots,N(这个将用于后面重新从另一个角度阐述支持向量的关键,注意这个条件)**,则:

L(w,b,α)=12w2i=1Naiyi(wxi+b)+i=1NαiL(w,b,\alpha)=\frac12||w||^2-\sum\limits^N_{i=1}a_iy_i(w\cdot x_i+b)+\sum^N_{i=1}\alpha_i

根据拉格朗日对偶性,原始问题的对偶问题是极大极小问题:

maxαminw,bL(w,b,α)\max_\alpha\,\min_{w,b}L(w,b,\alpha)

  1. minw,bL(w,b,α)\min\limits_{w,b}L(w,b,\alpha),将拉格朗日函数L(w,b,α)L(w,b,\alpha)分别对w,bw,b,求偏导数并且令其等于0;

    wL(w,b,α)=wi=1Naiyixi=0bL(w,b,α)=i=1Naiyi=0\nabla_wL(w,b,\alpha)=w-\sum^N_{i=1}a_iy_ix_i = 0\\ \nabla_bL(w,b,\alpha)=-\sum^N_{i=1}a_iy_i=0

    w=i=1Nαiyixii=1Nαiyi=0w=\sum^N_{i=1}\alpha_iy_ix_i\\ \sum^N_{i=1}\alpha_iy_i=0

    将结论带入拉格朗日函数,得到

    L(w,b,α)=12i=1Nj=1Naiajyiyj(xixj)i=1Naiyi((j=1Nαjyjxj)xi+b)+i=1Nαi=12i=1Nj=1Naiajyiyj(xixj)i=1Nj=1Naiajyiyjxixjbi=1Naiyi+i=1Nαi=12i=1Nj=1Naiajyiyj(xixj)+i=1NαiL(w,b,\alpha)=\frac12\sum^N_{i=1}\sum^N_{j=1}a_ia_jy_iy_j(x_i\cdot x_j)-\sum^N_{i=1}a_iy_i((\sum^N_{j=1}\alpha_jy_jx_j)\cdot x_i+b)+\sum^N_{i=1}\alpha_i\\ =\frac12\sum^N_{i=1}\sum^N_{j=1}a_ia_jy_iy_j(x_i\cdot x_j)-\sum^N_{i=1}\sum^N_{j=1}a_ia_jy_iy_jx_ix_j-b\sum^N_{i=1}a_iy_i+\sum^N_{i=1}\alpha_i\\ =-\frac12\sum^N_{i=1}\sum^N_{j=1}a_ia_jy_iy_j(x_i\cdot x_j)+\sum^N_{i=1}\alpha_i

    因此求解

    minw,bL(w,b,α)=12i=1Nj=1Naiajyiyj(xixj)+i=1Nαi\min_{w,b}L(w,b,\alpha)=-\frac12\sum^N_{i=1}\sum^N_{j=1}a_ia_jy_iy_j(x_i\cdot x_j)+\sum^N_{i=1}\alpha_i

  2. minw,bL(w,b,α)\min_{w,b}L(w,b,\alpha)α\alpha的极大,即是对偶问题

    maxα12i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαis.t.i=1Nαiyi=0,αi0,i=1,2,,N\max_\alpha-\frac12\sum^N_{i=1}\sum^N_{j=1}\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\sum^N_{i=1}\alpha_i\\ s.t.\quad\sum^N_{i=1}\alpha_iy_i=0,\\ \alpha_i\geq0,\,i=1,2,\cdots,N

原始问题满足拉格朗日对偶性中末尾第二个定理的条件,所以存在w,α,βw^*,\alpha^*,\beta^*,使得ww^*是原始问题的解,α,β\alpha^*,\beta^*是对偶问题的解;这就意味着几乎等价的将原始问题转化为对偶问题;(巧妙~~)


对线性可分训练数据集,假设对偶最优化问题对α\alpha的解为α=(a1,a2,,aN)T\alpha^*=(a^*_1,a^*_2,\cdots,a^*_N)^T,可以有α\alpha^*求得原始最优化问题的解w,bw^*,b^*;i

定理:α\alpha^*是对偶最优化问题的解,则存在下表jj,使得aj>0a^*_j>0,且

w=i=1Nαiyixib=yji=1Nαiyi(xixj)w^*=\sum^N_{i=1}\alpha^*_iy_ix_i\\ b^*=y_j-\sum^N_{i=1}\alpha^*_iy_i(x_i\cdot x_j)

​ 分类决策函数可以写成

f(x)=sign(i=1Nαiyixxi+b)f(x)=sign(\sum^N_{i=1}\alpha^*_iy_ix\cdot x_i+b^*)

也就是说分裂决策函数只依赖于输入x和训练样本输入的内积;上式称为线性可分支持向量机的对偶形式;

综上所述,对于给定的线性可分训练数据集,可以先求对偶问题的解α\alpha^*在根据定理求解原始问题的w,bw^*,b^*;从而得到分离超平面及分类决策函数;这种算法称为线性可分支持向量机的对偶学习算法,是线性可分支持向量机的基本算法;

线性可分支持向量机学习算法

线性可分支持向量机中,w,bw^*,b^*只依赖于训练数据中对应于αi>0\alpha^*_i>0的样本点(xi,yi)(x_i,y_i),而其他样本点对w,bw^*,b^*没有影响我们将训练数据中对应于αi>0\alpha^*_i>0的实例点xiRnx_i\in R^n称为支持向量;

定义:(支持向量) 考虑最优化问题和对偶最优化问题,将训练数据集中对应于αi>0\alpha^*_i>0的样本点(xi,yi)(x_i,y_i)的实例xiRnx_i\in R^n称为支持向量;

根据这一定义支持向量一定在间隔边界上,由KKT互补条件可知,

ai(yi(wxi+b)1)=0,i=1,2,,Na^*_i(y_i(w^*\cdot x_i+b^*)-1)=0,\quad i=1,2,\cdots,N

对应于ai>0a^*_i>0的实例xix_i,有

yi(wxi+b)1=0wxi+b=±1y_i(w^*\cdot x_i+b^*)-1=0\\ w^*\cdot x_i+b^*=\pm1

xix_i一定在间隔边界上。这里支持向量的定义与前面给出支持向量是一致的;

线性支持向量机与软间隔最大化

线性支持向量机

线性可分的问题的支持向量学习方法,对线性不可分的训练数据是不适用的,因为这时上述方法的不等式约束并不都能成立。这就需要修改硬间隔最大化为软间隔最大化;

线性不可分就意味着某些样本点(xi,yi)(x_i,y_i)不能满足函数间隔大于等于1的约束条件。为了解决这个问题可以对每个样本点(xi,yi)(x_i,y_i)引入一个松弛变量ξi0\xi_i\geq0,使函数间隔加上松弛变量大于等于1,这样约束条件为

yi(wxi+b)1ξiy_i(w\cdot x_i +b)\geq 1-\xi _i

同时,对每个松弛变量ξi\xi_i,支付一个代价ξi\xi_i,目标函数有原来的12w2\frac12||w||^2变成

12w2+Ci=1Nξi\frac12||w||^2+C\sum^N_{i=1}\xi_i

这里,C>0C>0称为惩罚参数,一般根据实际问题决定,C值的大小决定了对误分类的惩罚大小;最小化目标函数包含两层含义:使12w2\frac12||w||^2尽量小(间隔尽量大),同时误分类点个数尽量小,C是用来调和二者的系数;

利用此思路,可以和训练数据线性可分时一样来考虑数据集线性不可分时的线性支持向量机学习问题,称为软间隔最大化;线性不可分的的线性支持向量机学习问题变成了如下凸二次规划问题:

minw,b,ξ12w2+Ci=1Nξis.t.yi(wxi+b)1ξi,i=1,2,,Nξi,i=1,2,,N\min_{w,b,\xi}\frac12||w||^2+C\sum^N_{i=1}\xi_i\\ s.t.\quad y_i(w\cdot x_i+b)\geq1-\xi_i,\quad i=1,2,\cdots,N\\ \xi_i\geq,\quad i=1,2,\cdots,N

可以证明w是唯一的,但b的解可能不唯一,而是存在一个区间;

定义(线性支持向量机): 对于给定的线性不可分的训练数据集,通过求解凸二次规划问题,即软间隔最大化问题,得到分离超平面为

wx+b=0w^*\cdot x+b^*=0

以及相应的分类决策函数

f(x)=sign(wx+b)f(x)=sign(w^*\cdot x+b^*)

称为线性支持向量机;

学习的对偶算法

原始最优化问题的拉格朗日函数是

L(w,b,ξ,α,μ)=12w2+Ci=1Nξii=1Nαi(yi(wxi+b)1+ξi)i=1NμiξiL(w,b,\xi,\alpha,\mu)=\frac12||w||^2+C\sum^N_{i=1}\xi_i-\sum^N_{i=1}\alpha_i(y_i(w\cdot x_i+b)-1+\xi_i)-\sum^N_{i=1}\mu_i\xi_i

其中,αi0,μi0\alpha_i\geq0,\mu_i\geq0,对偶问题是拉格朗日极大极小问题,首先对L(w,b,ξ,α,μ)L(w,b,\xi,\alpha,\mu)w,b,ξw,b,\xi的极小,由

wL(w,b,ξ,α,μ)=wi=1Nαiyixi=0bL(w,b,ξ,α,μ)=i=1Nαiyi=0ξiL(w,b,ξ,α,μ)=Cαiμi=0\nabla_wL(w,b,\xi,\alpha,\mu)=w-\sum^N_{i=1}\alpha_iy_ix_i=0\\ \nabla_bL(w,b,\xi,\alpha,\mu)=-\sum^N_{i=1}\alpha_iy_i=0\\ \nabla_{\xi_i}L(w,b,\xi,\alpha,\mu)=C-\alpha_i-\mu_i=0

得到

w=i1Nαiyixii=1Nαiyi=0Cαiμi=0w=\sum^N_{i-1}\alpha_iy_ix_i\\ \sum^N_{i=1}\alpha_iy_i=0\\ C-\alpha_i-\mu_i=0

将其带入得到

minw,b,ξL(w,b,ξ,α,μ)=12i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαi\min_{w,b,\xi}L(w,b,\xi,\alpha,\mu)=-\frac12\sum^N_{i=1}\sum^N_{j=1}\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\sum^N_{i=1}\alpha_i

再对minw,b,ξL(w,b,ξ,α,μ)\min \limits_{w,b,\xi}\,L(w,b,\xi,\alpha,\mu)α\alpha的极大,即得对偶问题;

maxα12i=1Nj=1Nαiαjyiyj(xixj)+i=1Nαis.t.i=1Nαiyi=0Cαiμi=0αi0μi0,i=1,2,,N\max_\alpha-\frac12\sum^N_{i=1}\sum^N_{j=1}\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\sum^N_{i=1}\alpha_i\\ s.t.\quad\sum^N_{i=1}\alpha_iy_i=0\\ C-\alpha_i-\mu_i=0\\ \alpha_i\geq0\\ \mu_i\geq 0 ,\quad i=1,2,\cdots,N

可以将其转化为

minα12i=1Nj=1Nαiαjyiyj(xixj)i=1Nαis.t.i=1Nαiyi=00αiC,i=1,2,,N\min_\alpha \frac12\sum^N_{i=1}\sum^N_{j=1}\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)-\sum^N_{i=1}\alpha_i\\ s.t.\quad \sum^N_{i=1}\alpha_iy_i=0\\ 0\leq\alpha_i\leq C,\quad i=1,2,\cdots,N

**定理:**设α\alpha^*是对偶问题的一个解,若存在α\alpha^*的一个分量α,0<αj<C\alpha^*,0<\alpha^*_j<C,则原始问题的解w,bw^*,b^*,可以按照下式:

w=i=1Nαiyixib=yji=1Nyiαi(xixj)w^*=\sum^N_{i=1}\alpha^*_iy_ix_i\\ b^*=y_j-\sum^N_{i=1}y_i\alpha^*_i(x_i\cdot x_j)

证明:

由此可知,分离超平面

i=1Nαiyi(xxi)+b=0\sum^N_{i=1}\alpha^*_iy_i(x\cdot x_i)+b^*=0

分类决策函数可以写成

f(x)=sign(i=1Nαiyi(xxi)+b)f(x)=sign(\sum^N_{i=1}\alpha^*_iy_i(x\cdot x_i)+b^*)

算法

支持向量

在线性不可分的情况下,将对偶问题的解α\alpha^*中对应于αi>0\alpha^*_i>0的样本点(xi,yi)(x_i,y_i)的实例xix_i称为支持向量(软间隔的支持向量)。如图

软间隔的支持向量在间隔边界或者分离超平面之间,

  • αi<C\alpha^*_i<C,则ξi=0\xi_i=0,支持向量恰好落在间隔边界上
  • αi=C,0<ξi<1,\alpha^*_i=C,0<\xi_i<1,则分类正确,实例落在间隔边界与分离超平面之间
  • αi=C,ξi=1\alpha^*_i=C,\xi_i=1,则实例在分离超平面上
  • αi=C,ξi>1\alpha^*_i=C,\xi_i>1,则实例点位于分离超平面误分的一侧

合页损失函数

线性可分支持向量机学习还有另外一种解释,就是最小化以下目标函数

i=1N[1yi(wxi+b)]++λw2\sum^N_{i=1}[1-y_i(w\cdot x_i+b)]_++\lambda||w||^2

目标函数的第一项是经验损失或经验风险,函数

L(y(wx+b))=[1y(wx+b)]+L(y(w\cdot x+b))=[1-y(w\cdot x+b)]_+

称为合页损失函数(hinge loss function)。下标“+”表示一下取正值的函数

[z]+={z,z>00,z0[z]_+=\begin{cases} z,z>0\\ 0,z\leq0 \end{cases}

这就是说,当样本点(xi,yi)(x_i,y_i)被正确分类且间隔(置信度)yi(wxi+b)y_i(w\cdot x_i+b)大于1时,损失是0,否则损失是1yi(wxi+b)1-y_i(w\cdot x_i+b).注意到其中有正确分类但损失不是0.目标函数的第二项是函数λ\lambda的w的L2L_2范数,是正则化项;

定理: 线性支持向量机的原始最优化问题

minw,b,ξ12w2+Ci=1Nξs.t.yi(wxi+b)1ξ,i=1,2,,Nξi0,i=1,2,,N(1,2,3)\min_{w,b,\xi}\frac12||w||^2+C\sum^N_{i=1}\xi\\ s.t.\quad y_i(w\cdot x_i +b)\geq1-\xi,\quad i=1,2,\cdots,N\\ \xi_i\geq0,\quad i=1,2,\cdots,N\tag{1,2,3}

等价于最优化问题

minw,bi=1N[1yi(wxi+b)]++λw2\min_{w,b}\sum^N_{i=1}[1-y_i(w\cdot x_i+b)]_++\lambda||w||^2

**证明:**可以将上面两个式子进行改写,令

[1yi(wxi+b)]+=ξi[1-y_i(w\cdot x_i+b)]_+=\xi_i

  • 由合页函数定义知ξi0\xi_i\geq0成立
  • 1yi(wxi+b)>01-y_i(w\cdot x_i+b)>0时,有1yi(wxi)=1ξi1-y_i(w\cdot x_i)=1-\xi_i
  • qyi(wxi+b)0q-y_i(w\cdot x_i+b)\leq0时,ξi=0\xi_i=0,有yi(wxi+b)1ξiy_i(w\cdot x_i+b)\geq1-\xi_i

于是,满足约束条件故最优化问题可以写为

minw,bi=1Nξi+λw2\min_{w,b}\sum^N_{i=1}\xi_i+\lambda||w||^2

若取λ=12C\lambda=\frac1{2C},则

minw,b1C(12w2+Ci=1Nξi)\min_{w,b}\frac1C(\frac12||w||^2+C\sum^N_{i=1}\xi_i)


依据下图来做一个简单的总结

  • 0-1损失函数可以认为是二分类问题的真正损失函数,而合页损失函数是其上界;由于0-1损失函数不是连续可导的,直接优化目标函数比较困难,可以认为线性支持向量机是由优化0-1损失函数的上界(合页损失函数)构成的目标函数。此上界又称为代理损失函数;
  • 图中虚线显示的是感知机的损失函数[yi(wxi+b)]+[-y_i(w\cdot x_i+b)]_+,当样本点被正确分类时,损失为0,否则损失为yi(wxi+b)-y_i(w\cdot x_i+b)相比之下,合页损失函数不仅要求分类正确,而且确信度足够高时损失才是0,合页损失函数有更高的要求

非线性支持向量机与核函数

这里介绍说的非线性支持向量机主要特点是利用核技巧(kernel trick),因此会介绍核技巧,其不仅用于支持向量机也用于其他统计学习问题;

核技巧

一般来说,对给定的一个训练数据集如果一个超曲面能够将正负例正确分开,但可以用一条椭圆曲线(非线性模型)将其分开,则称这个问题为非线性可分问题;

我们所采取的方法是进行一个非线性变换,将非线性问题变换为线性问题,通过解变换后的线性问题求解原来的非线性问题。通过变换将作图中的椭圆变换成右图中的直线,将非线性问题变换为线性可分类问题;(巧妙)

根据上图,用线性分类方法求解线性分类问题可以分成两部

  • 使用一个变换将空间中的数据映射到新的空间中
  • 然后再新的空间中使用线性分类学习方法从训练数据中学习分类模型

核技巧就是这样的方法,核技巧应用支持向量机基本想法是通过一个非线性变换将输入空间(欧式空间RbR^b或离散集合)对应于一个特征空间(西伯尔特空间),使得在输入空间中的超曲面模型对应于特征空间中的超平面模型。这样,分类问题的学习任务通过在特征空间中求解线性支持向量机来完成;

核函数的定义:设输入空间χ\chi,特征空间HH,如果存在一个映射

ϕ(x):χH\phi(x):\chi\rightarrow H

使得对所有的x,zχ,x,z\in\chi,函数K(x,z)K(x,z)满足条件

K(x,z)=ϕ(x)ϕ(z)K(x,z)=\phi(x)\cdot\phi(z)

则称K(x,z)K(x,z)为核函数,ϕ(x)\phi(x)为映射函数,核函数为映射函数的内积;

核技巧的想法是,在学习与预测中只定义核函数,而不显示的定义映射函数,通常直接定义K(x,z)K(x,z)比较容易,而通过映射函数计算核函数并不容易特征;注意,**ϕ\phi**是输入空间到特征空间的映射,特征空间一般是高维的,甚至是无穷维的,可以看到对给定的核K(x,z)K(x,z),特征空间和映射函数的取法不唯一,甚至在同意特征空间内也可以取不同的映射;

核技巧在支持向量中的应用

注意到线性支持向量机的对偶问题中,无论是目标函数还是决策函数(分离超平面)都只涉及输入实例与实例之间的内积。在对偶问题的目标函数中的内积xixjx_i\cdot x_j,可以用核函数K(xi,xj)K(x_i,x_j)来代替。

此时对偶问题的目标函数为

W(α)=12i=1Nj=1NαiαjyiyjK(xi,xj)i=1NαiW(\alpha)=\frac12\sum^N_{i=1}\sum^N_{j=1}\alpha_i\alpha_jy_iy_jK(x_i,x_j)-\sum^N_{i=1}\alpha_i

同样分类决策函数中的内积也可以用核函数代替,因为分类决策函数为

f(x)=sign(i=1Nsαiyiϕ(xi)ϕ(x)+b)=sign(i=1NSαiyiK(xi,x)+b)f(x)=sign(\sum^{N_s}_{i=1}\alpha^*_iy_i\phi(x_i)\cdot\phi(x)+b^*)\\ =sign(\sum^{N_S}_{i=1}\alpha^*_iy_iK(x_i,x)+b^*)

这等价于经过映射函数ϕ\phi将原来的输入空间转换到一个新的特征空间,将输入空间中的内积xi,xjx_i,x_j,变换为特征空间中的内积ϕ(xi)ϕ(y)\phi(x_i)\cdot\phi(y),在新的特征空间中训练样本中学习线性支持向量机,当映射函数是非线性函数时,学习到的含有核函数的支持向量机是非线性分类模型;

在核函数给定的条件下可以利用求解线性分类问题的方法求解非线性分类问题;学习是隐式的在特征空间中进行的,不需要显式定义特征空间和映射函数。这称为核技巧;在实际应用中,往往依赖领域知识直接选择核函数,核函数的选择的有效性需要通过实验验证;

正定核

不构造映射ϕ(x)\phi(x)能否判断一个给定的函数K(x,z)K(x,z)是不是核函数?函数K(x,z)K(x,z)满足什么条件才能成为核函数?

这里叙述正定核的充要条件,通常所说的核函数就是正定核函数(positive definite kernel function);

假设K(x,z)K(x,z)是定义在χχ\chi * \chi上的对称函数,并且对任意的x1,x2,,xmχ,K(x,z)x_1,x_2,\cdots,x_m\in\chi ,K(x,z)关于x1,x2,,xmx_1,x_2,\cdots,x_m的Gram矩阵是半正定的,可以依据函数K(x,z)K(x,z),构成一个希尔伯特空间,其步骤为

  • 先定义映射函数ϕ\phi并构成向量空间S;
  • 然后再S空间上定义内积构成内积空间;
  • 最后S完备化构成希尔伯特空间
  1. 定义映射,构成向量空间S

    先定义映射

    ϕ:xK(,x)\phi:x\rightarrow K(\cdot,x)

    根据这一映射,对任意xiχ,αiR,i=1,2,,mx_i\in\chi,\alpha_i\in R,i=1,2,\cdots,m,定义线性组合

    f()=i=1MαiK(,xi)f(\cdot)=\sum^M_{i=1}\alpha_iK(\cdot,x_i)

    考虑线性组合为元素的集合SS,由于集合SS对加法和乘法运算是封闭的,所以S构成一个向量空间;

  2. S上定义内积,使之称为内积空间

    在S上定义运算*;对任意f,gSf,g\in S,

    f()=i=1MαiK(,xi)g()=j=1lβjK(,zi)f(\cdot)=\sum^M_{i=1}\alpha_iK(\cdot,x_i)\\ g(\cdot)=\sum^l_{j=1}\beta_jK(\cdot,z_i)

    定义运算*

    fg=i=1Mj=1LαiβjK(xi,zj)f*g=\sum^M_{i=1}\sum^L_{j=1}\alpha_i\beta_jK(x_i,z_j)

  3. 将内积空间SS完备化为希尔伯特空间

  4. 正定核的充要条件K:χχRK:\chi * \chi\rightarrow R是对称函数,则K(x,z)K(x,z)为正定核函数的充要条件是对任意的xiχ,i=1,2,,m,K(x,z)x_i\in \chi,i=1,2,\cdots,m,K(x,z)对应的Gram矩阵:

    K=[K(xi,xj)]mmK=[K(x_i,x_j)]_{m*m}

    是半正定的;

    定义:(正定核的等价定义): 设χRnK(x,z)\chi\subset R^n,K(x,z)是定义在χχ\chi*\chi上的对称函数,对任意的xiχ,i=1,2,,m,K(x,z)x_i\in \chi,i=1,2,\cdots,m,K(x,z)对应的Gram矩阵

    K=[K(xi,xj)]mmK=[K(x_i,x_j)]_{m*m}

    是半正定矩阵,则称K(x,z)K(x,z)是正定核;

    此定义在构造核函数时候很有用,但对于一个具体的核函数来说验证它是否为正定核是不容易的,因为要求对任意有限输入集{x1,x2,,xm}\{x_1,x_2,\cdots,x_m\}验证K对应的Gram矩阵是否为半正定的。实际问题中往往应用已有的核函数。另外,由Mercer定理可以得到Mercer核,正定核比Mercer更具一般性

常用核函数

非线性支持向量分类机(141)

待更新。。。。


-------------本文结束感谢您的阅读-------------
作者将会持续总结、分享,如果愿意支持作者,作者将会十分感激!!!