ClassificationSVM
万博1manbetx支持向量机(SVM)看到下面成了和二进制分类
描述
ClassificationSVM
是一个万博1manbetx支持向量机(SVM)分类器看到下面成了和两级学习。训练有素的ClassificationSVM
分类器存储训练数据,参数值,先验概率支持向量,和算法实现的信息。万博1manbetx使用这些分类器来执行任务,如配件score-to-posterior-probability变换函数(见fitPosterior
)和预测新数据(见标签预测
)。
创建
创建一个ClassificationSVM
对象的使用fitcsvm
。
属性
对象的功能
紧凑的 |
减少支持向量机(SVM)分类器万博1manbetx的大小 |
compareHoldout |
比较两种分类模型使用新数据的精度 |
crossval |
旨在支持向量机(SVM)分类器万博1manbetx |
discard万博1manbetxSupportVectors |
放弃支持向量线性万博1manbetx支持向量机(SVM)分类器 |
边缘 |
找到分类支持向量机(SVM)分类器的边缘万博1manbetx |
fitPosterior |
合适的后验概率支持向量机(SVM)分类器万博1manbetx |
损失 |
找到分类错误的支持向量机(SVM)分类器万博1manbetx |
保证金 |
找到分类利润支持向量机(SVM)分类器万博1manbetx |
预测 |
预测标签使用支持向量机(SVM)分类器万博1manbetx |
resubEdge |
找到分类支持向量机(SVM)分类器的边缘resubstit万博1manbetxution |
resubLoss |
找到分类损失由resubstitution支持向量机(SV万博1manbetxM)分类器 |
resubMargin |
寻找支持向量机(SVM)分类利润率由resubstitution万博1manbetx分类器 |
resubPredict |
预测resubstitution反应对支持向量机(SVM)分类器万博1manbetx |
的简历 |
恢复训练支持向量机(SVM)分类万博1manbetx器 |
例子
更多关于
算法
数学公式的二进制分类支持向量机算法,明白了万博1manbetx支持向量机的二叉分类和了解支持向量机万博1manbetx。
南
,<定义>
,空字符向量(”
)值显示缺失值。fitcsvm
删除整行数据对应于一个失踪的响应。当计算总重量(见下一个子弹),fitcsvm
忽略任何重量对应于一个观察至少有一个失踪的预测。这一行动会导致balanced-class先验概率不平衡问题。因此,观察箱约束可能不相等BoxConstraint
。fitcsvm
删除零重量或先验概率的观察。对于两种学习,如果你指定成本矩阵 (见
成本
),那么软件更新类的先验概率p(见之前
)pc通过合并中描述的处罚 。具体地说,
fitcsvm
完成这些步骤:计算
正常化pc*所以更新的先验概率之和为1。
重置成本矩阵默认
从训练数据中删除观察对应类先验概率为零。
对两种学习,
fitcsvm
使所有的观察权重(见规范化权重
)之和为1。函数然后renormalizes归一化权重的先验概率更新总结观察所属的类。也就是说,观测的总重量j在课堂上k是对两种学习,
fitcsvm
分配一个框约束来训练数据中的每个观测。的公式框约束的观察j是“BoxConstraint”
名称-值对的观点), 观测的总重量吗j(见以前的子弹)。如果你设置
“标准化”,真的
和“成本”
,“之前”
,或“重量”
名称-值对的论点fitcsvm
规范使用相应的加权预测手段和加权标准差。也就是说,fitcsvm
标准化预测j(xj)使用xjk是观察k(行)的预测j(列)。
假设
p
离群值的比例,你期望在训练数据,你准备好了吗OutlierFraction, p
。看到下面成了学习的软件列车偏差项,100
p
%的观察训练数据有负的成绩。该软件实现了强劲的学习两级学习。换句话说,软件试图删除100
p
%的观察时,优化算法是收敛的。删除观察对应梯度大的大小。
如果你的预测数据包含分类变量,然后软件通常使用这些变量的完整虚拟编码。每一层的软件创建一个哑变量每个类别变量。
的
PredictorNames
原始属性存储一个元素为每个预测变量名。例如,假设有三个因素,其中一个是和三个层次类别变量。然后PredictorNames
是一个1×3单元阵列包含原始特征向量的预测变量的名称。的
ExpandedPredictorNames
属性存储一个元素为每个预测变量,包括虚拟变量。例如,假设有三个因素,其中一个是和三个层次类别变量。然后ExpandedPredictorNames
是一个1-by-5单元阵列特征向量包含预测变量的名称和新虚拟变量。类似地,
β
为每个预测属性存储一个β系数,包括虚拟变量。的
万博1manbetxSupportVectors
属性存储支持向量的预测价值,包括虚拟变量。万博1manbetx例如,假设米万博1manbetx支持向量和三个因素,其中一个是和三个层次类别变量。然后万博1manbetxSupportVectors
是一个n5矩阵。的
X
按原输入和属性存储训练数据不包括虚拟变量。当输入一个表,X
只包含的列作为预测因子。
预测表中指定,如果任何包含命令(顺序)类别的变量,这些变量的软件使用顺序编码。
为一个变量k要求水平,创建的软件k- 1虚拟变量。的jth哑变量是1为水平j,+ 1的水平j+ 1通过k。
哑变量中存储的名称
ExpandedPredictorNames
属性显示第一级的价值+ 1。软件商店k- 1额外的预测虚变量的名称,包括水平2的名字,3,…k。
所有连接器实现l1 soft-margin最小化。
看到下面成了学习的软件估计,拉格朗日乘数法,α1、……αn,这样
引用
[1]Hastie, T。,R。Tibshirani, and J. Friedman. The Elements of Statistical Learning, Second Edition. NY: Springer, 2008.
[2]Scholkopf B。,J. C. Platt, J. C. Shawe-Taylor, A. J. Smola, and R. C. Williamson. “Estimating the Support of a High-Dimensional Distribution.” Neural Comput., Vol. 13, Number 7, 2001, pp. 1443–1471.
[3]Christianini, N。,J. C. Shawe-Taylor. An Introduction to Support Vector Machines and Other Kernel-Based Learning Methods. Cambridge, UK: Cambridge University Press, 2000.
[4]Scholkopf B。答:Smola。学习与内核:支持向量机,正则化优化,自适应计算万博1manbetx和机器学习。剑桥,麻州:麻省理工学院出版社,2002年。