社区
机器视觉
帖子详情
svm中两个特征向量到最优分类面距离相同,但属性不同,怎么区分
winston600
2012-02-28 10:59:41
比如一个向量(3,7)另一个(4,6),就好比说她俩距离最优分类面相同,但难道说她俩在最后按距离最优分类面远近的排列上并列吗?
...全文
103
回复
打赏
收藏
svm中两个特征向量到最优分类面距离相同,但属性不同,怎么区分
比如一个向量(3,7)另一个(4,6),就好比说她俩距离最优分类面相同,但难道说她俩在最后按距离最优分类面远近的排列上并列吗?
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
分类
算法
SVM
(支持向量机)
支持向量机(Support Vector Machine ,
SVM
)的主要思想是:建立一个
最优
决策超平
面
,使得该平
面
两侧
距离
该平
面
最近的两类样本之间的
距离
最大化,从而对
分类
问题提供良好的泛化能力。对于一个多维的样本集,系统随机产生一个超平
面
并不断移动,对样本进行
分类
,直到训练样本
中
属于
不同
类别的样本点正好位于该超平
面
的两侧,满足该条件的超平
面
可能有很多个,
SVM
正式在保证
分类
精度的同时,寻找到这样
机器学习:支持向量机(
SVM
)
1,概述 1.1,概念 支持向量机(
SVM
)是一类按监督学习方式对数据进行二元
分类
的广义线性
分类
器,其决策边界是对学习样本求解的最大边距超平
面
,可以将问题化为一个求解凸二次规划的问题。与逻辑回归和神经网络相比,支持向量机,在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。 具体来说就是在线性可分时,在原空间寻找两类样本的
最优
分类
超平
面
。在线性不可分时,加入松弛变量并通过使用非线性映射将低维度输入空间的样本映射到高维度空间使其变为线性可分,这样就可以在该特征空间
中
寻找
最优
分类
超平
面
。 SV
SVM
简单非线性
分类
,画出
分类
面
与支持向量(MATLAB)
创造两类二维非线性可分点,使用
SVM
进行
分类
,同时画出支持向量和
分类
面
,其实在二维的情况下就是个分界线,这个
分类
面
并不是高维的,因为
SVM
的映射是个黑箱,画不出高维映射后的
分类
面
。 代码
中
调用了台湾大学林智仁教授的lib
svm
包,因为怕与MATLAB自带的
SVM
函数名重了,所以改成了lib
svm
train和lib
svm
predict。 lib
svm
3.22版本的包可以到这里去下载 解压后...
支持向量机
SVM
简介
支持向量机
SVM
是从线性可分情况下的
最优
分类
面
提出的。所谓
最优
分类
,就是要求
分类
线不但能够将两类无错误的分开,而且两类之间的
分类
间隔最大,前者是保证经验风险最小(为0),而通过后
面
的讨论我们看到,使
分类
间隔最大实际上就是使得推广性
中
的置信范围最小。推广到高维空间,
最优
分类
线就成为
最优
分类
面
。 支持向量机是利用
分类
间隔的思想进行训练的,它依赖于对数据的预处理,即,在更高维的空间表达原始模
支持向量机(
SVM
)(三)--
最优
间隔
分类
器(optimal margin classifier)
在之前为了寻找最有
分类
器,我们提出了如下优化问题: 在这里我们可以把约束条件改写成如下: 首先我们看下
面
的图示: 很显然我们可以看出实线是最大间隔超平
面
,假设×号的是正例,圆圈的是负例。在虚线上的点和在实线上
面
的
两个
一共这三个点称作支持向量。现在我们结合KKT条件分析下这个图。 我们从式子和式子可以看出如果那么, 这个也就说明时,w处于可行域的边界上,这时才是起作用的约束
机器视觉
4,445
社区成员
15,335
社区内容
发帖
与我相关
我的任务
机器视觉
图形图像/机器视觉
复制链接
扫一扫
分享
社区描述
图形图像/机器视觉
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章