移动学习网 导航

多类支持向量分类 基于支持向量机的多分类算法有哪些

2024-05-12m.verywind.com
支持向量机适用于多分类吗~

支持向量机SVM ( Support Vector Machines)是由Vanpik领导的ATTBell实验室研究小组
在1963年提出的一种新的非常有潜力的分类技术, SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域.由于当时这些研究尚不十分完善,在解决模式识别问题中往往趋于保守,且数学上比较艰涩,因此这些研究一直没有得到充的重视.直到90年代,一个较完善的理论体系—统计学习理论 ( StatisticalLearningTheory,简称SLT) 的实现和由于神经网络等较新兴的机器学习方法的研究遇到一些重要的困难,比如如何确定网络结构的问题、过学习与欠学习问题、局部极小点问题等,使得SVM迅速发展和完善,在解决小样本 、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中.从此迅速的发展起来,现在已经在许多领域(生物信息学,文本和手写识别等)都取得了成功的应用。
SVM的关键在于核函数,这也是最喜人的地方。低维空间向量集通常难于划分,解决的方法是将它们映射到高维空间。但这个办法带来的困难就是计算复杂度的增加,而核函数正好巧妙地解决了这个问题。也就是说,只要选用适当的核函数,我们就可以得到高维空间的分类函数。在SVM理论中,采用不同的核函数将导致不同的SVM算法
它是一种以统计学理论为基础的,以结构风险最小化的学习机学习方法,要优于神经网络学习。

作为一种新兴的机器学习方法,基于统计学习理论的支持向量机,最初是用来解决二类分类问题的。对于实际中主要遇到的多类分类问题,目前常用的两大类改进推广方法为"分解—重组"法和"直接求解"法。

基本的支持向量机仅能解决两类分类问题。但是在实际的应用中,我们经常遇到对于多值分类问题。多值分类问题有很多解决的方法。常见的多类分类器有:1-a-r分类器,1-a-1分类器和多级B支持向量机(两类支持向量机)分类器,具体如下:

(1)1-a-r分类器

其基本想法是把某一种类别的样本当作一个类别,剩余其它类别的样本当作另一个类别,这样就变成了一个两分类问题。这种分类方案的缺点是训练样本数目大,训练困难。

(2)1-a-1分类器

其做法是在多类别中,任意抽取两类进行两两配对,转化成两类问题进行训练学习。识别时对所构成的多个支持向量机进行综合判断,一般可采用投票方式来完成多类识别。这种分类方案存在一个明显的缺点,就是子分类器过多,测试时需要对每两类都进行比较,导致测试速度慢。它的优点在于,对训练结果的推广性进行了分析。另外,它的测试速度比一般的方案要快。

(3)支持向量机决策树

它通常和二叉树结合起来构成多类别的识别器。这种方法的缺点是如果在某个节点上发生了分类错误,将会把错误延续下去,该节点后续下一级节点上的分类就失去了意义。



  • 多类支持向量分类
  • 答:基本的支持向量机仅能解决两类分类问题。但是在实际的应用中,我们经常遇到对于多值分类问题。多值分类问题有很多解决的方法。常见的多类分类器有:1-a-r分类器,1-a-1分类器和多级B支持向量机(两类支持向量机)分类器,具体如下:(1)1-a-r分类器 其基本想法是把某一种类别的样本当作一个类...

  • 支持向量机多类分类方法及特点
  • 答:目前,支持向量机多类分类的方法主要包括两种:一是将多个分类面的参数求解合并到一个最优化问题中,通过求解该最优化问题实现多类分类;二是将多类分类问题分解成多个两类分类问题,然后再采用某种方法将多个两类分类器的输出组合在一起实现多类分类。下面对这些方法进行介绍:1)1− a −...

  • 支持向量机分类法
  • 答:支持向量机(SVM)分类的主要思想是寻找最优分离超平面(Optimal Separating Hyperplane,OSH),将两类样本无错误的分开,并使分类空隙最大,如图2.2所示。记H为最优分离超平面,H1和H2之间的距离M为分类间隔。图2.2 最优分离超平面和支持向量机的最大边缘 支持向量机用来解决非线性问题,它是通过如图2...

  • 支持向量机分类为什么会出现分3类比分2类准确度高很多
  • 答:分类问题和回归问题都要根据训练样本找到一个实值函数g(x). 回归问题的要求是:给定一个新的模式,根据训练集推断它所对应的输出y(实数)是多少。也就是使用y=g(x)来推断任一输入x所对应的输出值。分类问题是:给定一个新的模式,根据训练集推断它所对应的类别(如:+1,-1)。也就是使用y=s...

  • 支持向量机分类方法的优缺点
  • 答:1)支持向量机算法对大规模训练样本难以实施,这是因为支持向量算法借助二次规划求解支持向量,这其中会设计m阶矩阵的计算,所以矩阵阶数很大时将耗费大量的机器内存和运算时间。2)经典的SVM只给出二分类的算法,而在数据挖掘中,一般要解决多分类的分类问题,而支持向量机对于多分类问题解决效果并不理想。

  • 支持向量机学习算法
  • 答:用一对多多类支持向量机水质分类法:有四类等级要划分,于是在抽取训练集的时候,分别抽取I所对应的向量作为正集,其余所对应的向量作为负集;Ⅱ所对应的向量作为正集,其余所对应的向量作为负集……,这四个训练集分别进行训练得到四个分类器。然后,利用这四个训练结果文件对测试集分别进行测试,最后...

  • svm在多类分类算法中的分析和应用
  • 答:SVM是Support Vector Machine 的缩写,翻译过来就是支持向量机,属于一种机器学习算法,类似于人工神经网络,但是分类的效果好于神经网络,而且算法固定,不会出现网络输出不收敛或者随机性较大的情况。svm本身是一个二元分类器,你要进行多元分类,必须构造多分类算法,常见的是 一对一 和 一对多 算法。

  • 支持向量机
  • 答:SVC、NuSVC和LinearSVC能够实现多元分类。SVC与NuSVC十分相似,不同之处在于NuSVC引入了一个新的超参数v,它可以控制支持向量的数量和训练误差。LinearSVC是另一个实现线性核函数的支持向量分类,所以它不接受关键词kernel,也没有所谓的支持向量。支持向量的解释:支持向量本质上就是一个向量,而且是离间隔...

  • 支持向量机(2)
  • 答:当我们使用支持向量机求解这类问题时,就会把最大间隔称之为最大「软间隔」,而软间隔就意味着可以容许零星噪声数据被误分类。当出现上图所示的样本点不是严格线性可分的情况时,某些样本点 就不能满足函数间隔 的约束条件,即公式(3b)中的约束条件。为了解决这个问题,可以对每个样本点 引...

  • 支持向量机中所谓的支持向量究竟是什么?
  • 答:在支持向量机中,距离超平面最近的且满足一定条件的几个训练样本点被称为支持向量。图中有红色和蓝色两类样本点。黑色的实线就是最大间隔超平面。在这个例子中,A,B,C 三个点到该超平面的距离相等。注意,这些点非常特别,这是因为超平面的参数完全由这三个点确定。该超平面和任何其他的点无关。如果...

    户户网菜鸟学习
    联系邮箱
    返回顶部
    移动学习网