zengweiak47

2020-08-12   阅读量: 675

8月12日

扫码加入数据分析学习群

先用标准线性回归试一下,再用岭回归或者lasso回归.
逻辑回归:
解决多分类问题
OVO方法:
容易两个类别之间构建一个分类器,加起来取值最大选哪个
缺点:计算量大,优点:数据相对平衡

OVR方法(一类和剩下的一类)
缺点:数据相对不平衡,优点:计算量小

机器学习中的损失函数
1.回归问题
1.1平均决定误差--L1损失函数
l.2均方差误差 -- L2损失函数
1.3Huber损失 -- 平滑平均绝对误差
2.分类问题
2.1:0-1损失函数
2.2:交叉熵损失函数(Logistic回归)

处理数据不平衡的处理方式:
1.数据层门处理:只能处理训练集,不能处理测试集
2.算法层门:权重参数调整

添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
22.4147 3 2 关注作者 收藏

评论(0)


暂无数据

推荐课程