hopeiagt

2020-06-05   阅读量: 629

机器学习

Batch梯度下降和随机梯度下降的区别

扫码加入数据分析学习群

BATCH: 计算梯度的过程中,使用整体的数据集来进行梯度的计算,整体的数据是不变的,所以每一次迭代中,计算出来的梯度,方向就比较稳定,但是很容易因为初始值选的不好,很容易陷入局部最优点。BATCH因为是在做矩阵的运算,所以在数据量小的时候,运算书非常快,但是数据量大的时候,矩阵运算速度会变的很慢。

STOCASTIC:计算梯度的过程当中,使用的是随机的一个样本来进行梯度的计算的,所以迭代的过程当中,计算出来的梯度就非常有随机性,可以很大程度上绕过局部最优,从而去更好的探索全局最优。随机梯度下降,在样本量少的情况下,速度比batch要慢,并且比较难收敛,在样本量大的情况下,速度要快很多。

添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
51.9626 3 2 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子