吴恩达机器学习课程笔记 | 第12章

本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片
机器学习 | Coursera
吴恩达机器学习系列课程_bilibili

@TOC

12 支持向量机(SVM)

12-1 优化目标

在这里插入图片描述

  • 上图左侧坐标系为$y=1$时代价函数的图像,支持向量机时画出粉色的曲线,命名为$Cost_1(z)$,下标指$y$的值为$1$
  • 同样的,右侧坐标系为$y=0$时代价函数的图像,支持向量机时画出粉色的曲线,命名为$Cost_0(z)$,下标指$y$的值为$0$

在逻辑回归中,代价函数为:
$$J(θ)=-\frac{1}{m}\left[\sum_{i=1}^my^{(i)}log(h_θ(x^{(i)}))+(1-y^{(i)})log(1-h_θ(x^{(i)}))\right]+\frac{λ}{2m}\sum_{j=1}^{n}θ_j^2$$
要支持向量机,先将上式里的负号放到求和里面去,然后把$\frac{1}{m}$去掉($\frac{1}{m}$是一个常数,虽然去掉它会改变代价函数的值,但是仍然能求得一样的最小值对应的$\theta$),之后得到的代价函数为:
$$J(θ)=\sum_{i=1}^m\left[y^{(i)}\left (-log(h_θ(x^{(i)}))\right )+(1-y^{(i)})\left(-log(1-h_θ(x^{(i)}))\right)\right]+\frac{λ}{2}\sum_{j=1}^{n}θ_j^2$$
把上式中的$\left (-log(h_θ(x^{(i)}))\right )$替换为$Cost_1(\theta^Tx^{(i)})$,把$\left(-log(1-h_θ(x^{(i)}))\right)$替换为$Cost_0(\theta^Tx^{(i)})$,得到代价函数:
$$J(θ)=\sum_{i=1}^m\left[y^{(i)}Cost_1(\theta^Tx^{(i)})+(1-y^{(i)})Cost_0(\theta^Tx^{(i)})\right]+\frac{λ}{2}\sum_{j=1}^{n}θ_j^2$$
在支持向量机中,不再使用正则化参数$\lambda$,改为使用参数$C$,更改后的支持向量机的代价函数为:
$$J(θ)=C\sum_{i=1}^m\left[y^{(i)}Cost_1(\theta^Tx^{(i)})+(1-y^{(i)})Cost_0(\theta^Tx^{(i)})\right]+\frac{1}{2}\sum_{j=1}^{n}θ_j^2$$

  • 支持向量机中不会预测$y=1/0$的概率,如果$\theta^Tx^{(i)}\ge0$,假定函数输出1,反之输出0

12-2 大间距的理解

支持向量机又被称为大间距分类器
在这里插入图片描述
更改支持向量机中的判断边界,让$\theta^Tx^{(i)}\ge1$时才输出1,$\theta^Tx^{(i)}\le-1$时才输出0,这样两个结果之间就有一个安全间距
在这里插入图片描述
使用一般的逻辑回归算法可能会生成上图中粉色和绿色的直线来分割两类样本,而使用支持向量机会生成图中黑色的直线,图中两条蓝线中间的区域称为间距,支持向量机会尽可能的将两种样本以最大的间距分隔开,可以看出,支持向量机后可以有更好地鲁棒性
在这里插入图片描述
如上图,先假设没有左侧的那一个负样本,用一个很大的$C$可以生成上图中黑色直线,但如果有左侧的那一个负样本,由于$C$很大,支持向量机为保证两类样本间有最大的间距,会生成上图中粉色的直线,但如果$C$没有那么大,则即使有左侧的那一个负样本,依然会生成黑色直线

  • $C$就相当于之前的$\frac{1}{\lambda}$,虽然两者确实不一样,但呈现出来的效果差不多

12-3 支持向量机的数学原理

12-4 核函数I

在这里插入图片描述
如图的样本,如果假定函数$\ge0$,就预测$y=1$,其他情况预测$y=0$,
在上图中的假定函数中,设$f_1=x_1,f_2=x_2,f_3=x_1x_2,f_4=x_1^2,…$
假定函数变为$h_\theta(x)=\theta_0+\theta_1 f_1+\theta_2 f_2+…$
以上方法与下文方法无关,与核函数无关
然而,除了对原有的特征进行组合以外,有没有更好的方法来构造𝑓1, 𝑓2, 𝑓3?我们可以利用核函数来计算出新的特征。
在这里插入图片描述
在坐标系中取3个样本标记矩阵$l^{(1)}、l^{(2)}、l^{(3)}$
$x$是一个给定的训练实例,假设有两个特征值,那么$x=[x_1,x_2]$

$$f_1=similarity\left(x,l^{(1)}\right)=exp\left(-\frac{\Vert x-l^{(1)} \Vert ^2}{2\sigma^2}\right)$$
$$f_2=similarity\left(x,l^{(2)}\right)=exp\left(-\frac{\Vert x-l^{(2)} \Vert^2 }{2\sigma^2}\right)$$
$$f_3=……$$
$$……$$

  • $similarity\left(x,l^{(i)}\right)$称为相似度量函数/核函数
  • $similarity\left(x,l^{(i)}\right)$也可写为$k\left(x,l^{(i)}\right)$
  • $exp(x)$表示$e^x$,这里称为高斯核函数
  • $\sigma^2$是高斯核函数的参数

核函数运算时可化为:
$$f_1=similarity\left(x,l^{(1)}\right)=exp\left(-\frac{\Vert x-l^{(1)} \Vert ^2}{2\sigma^2}\right)=exp\left(-\frac{\sum_{j=1}^n(x_j-l_j^{(1)} )^2}{2\sigma^2}\right)$$
在这里插入图片描述
如果$x$非常接近标记$l^{(1)}$,那么$f_1\approx exp(-\frac{0^2}{2\sigma^2})\approx1$
如果$x$远离标记$l^{(1)}$,那么$f_1\approx exp(-\frac{(large\ number)^2}{2\sigma^2})\approx0$
在这里插入图片描述
上图,如果$\sigma^2$变大,那么$f_i$的下降速度会变慢(斜率降低)
在这里插入图片描述
如上图,取一点$x$,已经通过支持向量机计算得出$\theta_0、\theta_1、…$的值如上图,然后可以按照核函数计算出$f_0、f_1、…$的值如上图,将$\theta$和$f$的值代入假定函数得到$0.5\ge0$,所以预测$y=1$
在这里插入图片描述
如上图,再取另外的点$x$,假设:最后得到靠近$l^{(1)}和l^{(2)}$的点会预测为1,而远离$l^{(1)}和l^{(2)}$的点会预测为0,那么最后可以拟合出一条如图中红色的曲线,曲线内预测为1,曲线外预测为0

12-5 核函数II

如何选择地标?
  我们通常是根据训练集的数量选择地标的数量,即如果训练集中有𝑚个实例,则我们选
取𝑚个地标,并且令:𝑙(1) = 𝑥(1), 𝑙(2) = 𝑥(2), . . . . . , 𝑙(𝑚) = 𝑥(𝑚)。这样做的好处在于:现在我们
得到的新特征是建立在原有特征与训练集中所有其他特征之间距离的基础之上的,即:
在这里插入图片描述
在这里插入图片描述

$f_1^{(i)}=similarity\left(x^{(i)},l^{(1)}\right)$
$f_2^{(i)}=similarity\left(x^{(i)},l^{(2)}\right)$
$…$
$f_m^{(i)}=similarity\left(x^{(i)},l^{(m)}\right)$
将$f$写为特征向量形式得到
$$f^{(i)}=
\begin{bmatrix}
f_0^{(i)}=1\
f_1^{(i)}\
f_2^{(i)}\
…\
f_m^{(i)}
\end{bmatrix}$$
$f^{(i)}$是一个$m+1$维矩阵,因为除了$m$个样本外,还加入了一个偏置项$f_0^{(i)}=1$
==矩阵$f^{(i)}$的含义是(第$i$个样本里的所有特征)与(从1到m的每一个样本里的所有特征)进行核函数运算,一共m个运算结果排列在矩阵里,再加上第0个的$f_0^{(i)}=1$==
在这里插入图片描述
用$f^{(i)}$替换带$x$项,得到代价函数为:
$$C\sum_{i=1}^m\left[y^{(i)}Cost_1(\theta^Tf^{(i)})+(1-y^{(i)})Cost_0(\theta^Tf^{(i)})\right]+\frac{1}{2}\sum_{j=1}^{n=m}θ_j^2$$

  • ==关于正则化项中$n=m$的解释:$\theta_{(i)}$是对应于矩阵$f^{(i)}$的权重,由于一共有$i=1,2,…,m$共m个$f^{(i)}$对应着m个$\theta$,所以假定函数中一共有m项,即有m个$\theta$,而之前已经规定了权重$\theta$的个数用n来表示,所以这里有$n=m$== 注意这里已经忽略了$\theta_0$,不对其进行正则化

正则化项在具体实施中,求和部分可写为$\sum_{j=1}^{n=m}θ_j^2=\theta^T\theta$,并且在计算时用$\theta^TM\theta$代替$\theta^T\theta$,矩阵$M$是根据我们选择的核函数而不同的一个矩阵,这样做可以提高计算效率,修改后的代价函数为:
$$C\sum_{i=1}^m\left[y^{(i)}Cost_1(\theta^Tf^{(i)})+(1-y^{(i)})Cost_0(\theta^Tf^{(i)})\right]+\frac{1}{2}\theta^TM\theta$$

理论上讲,我们也可以在逻辑回归中使用核函数,但是上面使用 𝑀来简化计算的方法不适用于逻辑回归,因此计算将非常耗费时间。

  在此,我们不介绍最小化支持向量机的代价函数的方法,你可以使用现有的软件包(如
liblinear,libsvm 等)。在使用这些软件包最小化我们的代价函数之前,我们通常需要编写核
函数,并且如果我们使用高斯核函数,那么在使用之前进行特征缩放是非常必要的。
  另外,支持向量机也可以不使用核函数,不使用核函数又称为线性核函数(linear kernel),
当我们不采用非常复杂的函数,或者我们的训练集特征非常多而实例非常少的时候,可以采
用这种不带核函数的支持向量机。
  下面是支持向量机的两个参数𝐶和𝜎的影响:
𝐶 = 1/𝜆
𝐶 较大时,相当于𝜆较小,可能会导致过拟合,高方差;
𝐶 较小时,相当于𝜆较大,可能会导致低拟合,高偏差;
𝜎较大时,可能会导致低方差,高偏差;
𝜎较小时,可能会导致低偏差,高方差。
来自https://www.cnblogs.com/sl0309/p/10499278.html

在这里插入图片描述
上图是两个参数对结果的影响

12-6 使用支持向量机(SVM)

在这里插入图片描述

  • 使用SVM软件库来计算$\theta$的值
  • 我们需要选择C的值
  • 我们需要选择核函数
    • 线性内核函数:不选择核函数,直接使用线性拟合,可以在特征数量n很大,而样本数量m很小的情况下使用
    • 高斯核函数:可以在样本数量m很大,特征数量n很小的情况下使用,能够拟合出非线性边界

使用非线性核函数时,需要将特征值归一化
核函数需要满足默塞尔定理Mercer’s theorem

在这里插入图片描述