内容简介:第一时间获取好内容
点击上方“ 大数据与人工智能 ”,“星标或置顶公众号”
第一时间获取好内容
作者丨stephenDC
这是作者的第 8 篇文章
本文是“稀疏核机”这个专题的第三篇,也是最后一篇。
在 《稀疏核机(上)—SVM回顾》 中,我们简单回顾了SVM的导出;在 《稀疏核机(中)—核方法》 中,我们从SVM的基函数扩展,引出了核方法。至此,准备工作已经完成,我们在本篇重点讨论核机的稀疏性。
主要内容包括:
-
稀疏核机的正式概念
-
SVM作为一种典型的稀疏核机,其稀疏性从何而来?
-
SVM是最稀疏的核机吗?
-
是否有办法获得比SVM更稀疏的核机?
稀疏核机
SVM的稀疏性
我们可以从最大化Margin、Hinge损失函数、对偶问题的约束项,这3个不同的角度来理解SVM的稀疏性。
Part 1
最大化Margin
先来回顾一下,对二分类问题,Margin的意义如下图所示。表示两类样本距离分隔超平面最小距离的2倍。
对线性可分的二分类问题,有无数个超平面可以将两个类别分开,而SVM定义为最大化Margin所确定的超平面。那么,最大化Margin的意义是什么呢?
a. 使结构风险最小化:样本点距分隔超平面的距离,代表了一种分类的确信度,最大化Margin显然增加了最可能被误分类的样本的分类确信度。
b. 让分隔超平面唯一化:虽然有无数个超平面可以将两类样本分开,但同时要让Margin最大,这个超平面就唯一确定了
问题来了,这个唯一的分隔超平面跟哪些样本点有关呢?从直觉上我们很容易发现,最大化Margin的超平面至少跟离超平面很远的那些点是没有关系的。
这当然只是一种直觉式的不严谨的理解,我们下面用Hinge损失函数来说明,这种直觉是对的。
Part 2
Hinge损失函数
Part 3
对偶问题的约束项
例子:
相关向量机
与SVM相比,RVM的第一目标是稀疏性,因此我们不管Margin最大化的问题,完全换一种思路。这种思路大概分3个步骤:
a. 定义核机的模型
b. 给每个样本点定义一个参数,表示该样本跟最终预测模型的相关性
c. 在模型学习的过程中,将这些相关性参数跟其他模型参数一起学习出来
RVM模型
相关性参数
参数求解
时至今日《稀疏核机》终于写完了,原本只是想写一篇文章的,却不想题目太大了,用三篇写完还是有些虎头蛇尾的感觉。
另外就是作者水平有限,如有幸被大神看到,还请多拍砖挑刺。最后,如果写作的这些东西,能对个别同学有些许帮助,就善莫大焉了。
-end-
相关内容阅读
2. 罗素的理发师和奥卡姆剃刀
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
大型网站技术架构演进与性能优化
许令波 / 电子工业出版社 / 2018-6 / 79
《大型网站技术架构演进与性能优化》从一名亲历者的角度,阐述了一个网站在业务量飞速发展的过程中所遇到的技术转型等各种问题及解决思路。从技术发展上看,网站经历了Web应用系统从分布式、无线多端、中台到国际化的改造;在解决大流量问题的方向上,涉及了从端的优化到管道到服务端甚至到基础环境优化的各个层面。 《大型网站技术架构演进与性能优化》总结的宝贵经验教训可以帮助读者了解当网站遇到类似问题时,应如何......一起来看看 《大型网站技术架构演进与性能优化》 这本书的介绍吧!