zengweiak47

2020-08-19   阅读量: 610

8月19日

扫码加入数据分析学习群

SVM的SMO算法
如果只对一个a优化,简介使a也成了常数,a可以右其余a表示

优化算法:
梯度下降法
坐标轴下降法
SMO算法

线性SVM:硬边距,软边距(允许有错误)
硬边距求解:
1.目标:分类间隔最大,优化:分割面
2.两个约束条件:分割面能够把正负样本点分开;点到分割面的距离最大,点事支持向量点
3.约束条件转换到一个不等式中:支持向量的点到面的距离最小
4.将有约束条件的优化问题转换为无约束条件的优化问题,通过引入拉格朗日函数
5.SMO求解:固定其他参数,每次优化两个参数
软边距:引入松弛变量和惩罚参数,允许有些点错分


非线性SVM
核函数有效减少了计算量.通过核函数,低维空间线性不可分,高维空间线性可分,
采用线性SVM求解方法.
使用SVM先考虑线性,在考虑其他


集成学习
1.个体学习器错误率低于0.5
2.个体学习器不一样(就有类型不一样,knn,svm,模型参数不一样)

同质个体学习器:应用最广泛,(同一种模型),采用决策树模型或神经网络

添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
27.6857 1 0 关注作者 收藏

评论(0)


暂无数据

推荐课程