机器学习笔记(十一)——学支持向量机怎能不懂“核”

栏目: IT技术 · 发布时间: 5年前

↑ 点击上方蓝字" 奶糖猫 ",加个关注如何

非线性支持向量机

对于线性分类问题,线性分类支持向量机是一种非常有效的方法。但是有的分类问题是非线性的,这时就可以使用非线性支持向量机对分类问题求解,其主要的特点是利用 核技巧(kernel trick) ,下面通过一个通俗的小栗子介绍核技巧。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

核方法与核技巧

假设有一个二维平面上有4个点,两个红色点、两个绿色点,这4个点位于一条直线上,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

对于这个问题,我们是无法利用一条直线准确将红色点和绿色点分隔开,但是可以利用 一条曲线 实现分类,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

这时可以改变一下我们固有的思想,如果 将二维平面映射至三维立体空间中 ,并且将一类别的点在纵轴上 提高或者下降 ,这样不就可以利用一个超平面将其分隔开了嘛!如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

现在只需要考虑一个问题,就是将同一类别在纵轴上同时提高或下降的操作应该如何实现。先回到开始的二维平面,如果将这些点添至坐标轴中,会不会存在某个函数的图像可以将其分隔开呢?

机器学习笔记(十一)——学支持向量机怎能不懂“核”

这里利用 一个函数 分两类点,可以看出红色点的横纵坐标乘积为0,即 ,绿色点的横纵坐标乘积为2,即 ,那么利用曲线 不就可以将两类点准确分类嘛!如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

其中 也就是我们非常熟悉的 反比例函数

解决了二维平面的问题,那么再将其映射至三维空间就可以解决前文提出的问题了。可以将算出的新值作为点在三维空间的z轴的坐标,绿色的点就可以 沿z轴正方向提高 ,两类点就可以利用一个超平面实现分类,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

上面这个栗子也称作 异或问题 ,求解这个问题利用的思想就是核方法。

这个栗子说明用线性分类方法求解分线性分类问题大致可分为两步:首先使用一个变换将原空间的数据映射至新空间;然后在新空间里用线性分类学习方法对数据进行分类,核技巧就属于这样的方法。

核技巧的基本思想就是通过一个 非线性变换 将输入空间映射至特征空间,使得输入空间的超曲面模型对应于特征空间的超平面模型,这样,就可以通过在特征空间利用线性支持向量机求解分类问题。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

核函数

在知道核技巧的基本思想后,我们可以对之前求出的 对偶问题 做出相应的处理,即通过输入空间向特征空间的映射,将,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

若按照这种方法对问题求解,必须在特征空间中求 和的内积 ,但是特征空间的维度往往是比较大的,这就使内积的运算极其复杂,有没有另一种方法可以简化这个求解方式呢?

假设有一个二维平面,我们需要将其映射至一个三维特征空间中,那么二维平面上的两类样本点分为用和;则在三维特征空间中两类点可以用和表示。

若要对三维特征空间做内积操作,可以将其做以下推导,可以看到三维特征空间中的内积是可以由二维平面的内积表示的,最后得到的这个函数就被称为 核函数

机器学习笔记(十一)——学支持向量机怎能不懂“核”

所以对于每一个映射至特征空间中的函数,都可以找到一个 相应的核函数 对其运算进行优化,表达式也可以做出相应的更改,如下:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

在此基础上可以了解一下核函数的定义,设是输入空间,又设为特征空间(希尔伯特空间),如果存在一个到的映射

使得对所有 ,函数 满足条件

则称为核函数,为映射函数,其中为和的内积。

综上,如果有一个 待求解的非线性分类问题 ,我们没有必要去计算其对应特征空间中的内积,只需要找到这个非线性分类问题对应的核函数,将输入空间的数据代入核函数中,便可求得该问题的解。

于是,“ 核函数的选择 ”就成了支持向量机的最大变数,若核函数的选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致分类效果不佳。而只是起到一个中间的 过渡作用 ,并没有什么实际意义。

下图给出了几个常用的核函数,其中 高斯核函数 是最为重要的,也称作径向基核函数。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

机器学习笔记(十一)——学支持向量机怎能不懂“核”

正定核

在已知映射函数,可以通过和的内积求得核函数,但这个过程是比较复杂的,能否 直接判断 一个给定的函数是不是核函数呢?或者一个函数需要满足什么条件才能成为核函数?

我们通常所说的核函数是叫作 正定核函数 ,先了解一下正定核的 两个概念

其一,若输入空间映射至特征空间的关系为

则称为正定核函数。

R代表数学中的实数域

其二,对于输入空间内的样本点

如果满足 对称性和正定性 ,则称为正定核函数。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

概念一很好理解,并且前文也应用到了,所以这里着重讲述一下概念二。概念二的对称性:

由于 内积运算具有对称性 ,而核函数包含内积运算,所以核函数具有对称性。

正定性表示对于任意,对应的Gram矩阵

半正定矩阵 。如果在对称性成立的情况下,那么正定性是一个核函数为正定核的 充要条件 ,即

这里只给出必要性的证明。若要证明一个矩阵是半正定的,只需证明矩阵中每个特征值都 大于等于0 即可。在已知条件下,对任意的 ,若存在以下等式:

机器学习笔记(十一)——学支持向量机怎能不懂“核”

则表明 关于的Gram矩阵是半正定的。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

总结

对于分类问题而言,可以利用核技巧,将线性分类的学习方法应用至非线性分类问题中。将线性支持向量机扩展至非线性支持向量机, 只需将线性支持向量机对偶问题中的内积利用转化成核函数 即可。

机器学习笔记(十一)——学支持向量机怎能不懂“核”

机器学习笔记(十一)——学支持向量机怎能不懂“核”

欢迎各位给奶糖猫留言      在线陪聊

看到这点个“在看”吧         谢谢大爷呀

End

往期推荐:

1. 机器学习笔记(十)——这样推导SMO算法才易理解

2. 机器学习笔记(九)——手撕支持向量机之间隔、对偶、KKT条件详细推导

3. 机器学习笔记(八)——随机梯度上升(下降)算法调优

4. 机器学习笔记(七)——初识逻辑回归、两种方法推导梯度公式

机器学习笔记(十一)——学支持向量机怎能不懂“核”


以上所述就是小编给大家介绍的《机器学习笔记(十一)——学支持向量机怎能不懂“核”》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Algorithms

Algorithms

Sanjoy Dasgupta、Christos H. Papadimitriou、Umesh Vazirani / McGraw-Hill Education / 2006-10-16 / GBP 30.99

This text, extensively class-tested over a decade at UC Berkeley and UC San Diego, explains the fundamentals of algorithms in a story line that makes the material enjoyable and easy to digest. Emphasi......一起来看看 《Algorithms》 这本书的介绍吧!

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具