在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。


下面我们以线性回归算法来对三种梯度下降法进行比较。


一般线性回归函数的假设函数为:


对应的损失函数为:

(这里的1/2是为了后面求导计算方便)


下图作为一个二维参数(theta0,theta1)组对应能量函数的可视化图:



下面我们来分别讲解三种梯度下降法

1批量梯度下降法BGD

我们的目的是要误差函数尽可能的小,即求解weights使误差函数尽可能小。首先,我们随机初始化weigths,然后不断反复的更新weights使得误差函数减小直到满足要求时停止。这里更新算法我们选择梯度下降算法,利用初始化的weights并且反复更新weights:


这里代表学习率,表示每次向着J最陡峭的方向迈步的大小。为了更新weights,我们需要求出函数J的偏导数。首先当我们只有一个数据点(x,y)的时候,J的偏导数是:




则对所有数据点上述损失函数的偏导(累和)为:



再最小化损失函数的过程中,需要不断反复的更新weights使得误差函数减小,更新过程如下:


那么好了,每次参数更新的伪代码如下:



由上图更新公式我们就可以看到,我们每一次的参数更新都用到了所有的训练数据(比如有m个,就用到了m个),如果训练数据非常多的话,是非常耗时的

下面给出批梯度下降的收敛图:



从图中,我们可以得到BGD迭代的次数相对较少。

2随机梯度下降法SGD

由于批梯度下降每跟新一个参数的时候,要用到所有的样本数,所以训练速度会随着样本数量的增加而变得非常缓慢。


随机梯度下降正是为了解决这个办法而提出的。它是利用每个样本的损失函数对θ求偏导得到对应的梯度,来更新θ:



更新过程如下:

 


随机梯度下降是通过每个样本来迭代更新一次,对比上面的批量梯度下降,迭代一次需要用到所有训练样本(往往如今真实问题训练数据都是非常巨大),一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。


但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。


随机梯度下降收敛图如下:


我们可以从图中看出SGD迭代的次数较多,在解空间的搜索过程看起来很盲目。但是大体上是往着最优值方向移动。

3min-batch 小批量梯度下降法MBGD

我们从上面两种梯度下降法可以看出,其各自均有优缺点,那么能不能在两种方法的性能之间取得一个折衷呢?算法的训练过程比较快,而且也要保证最终参数训练的准确率而这正是小批量梯度下降法(Mini-batch Gradient Descent,简称MBGD)的初衷。


我们假设每次更新参数的时候用到的样本数为10个(不同的任务完全不同,这里举一个例子而已


更新伪代码如下:


4实例以及代码详解


这里参考他人博客,创建了一个数据,如下图所示:



待训练数据A、B为自变量,C为因变量。

我希望通过这些训练数据给我训练出一个线性模型,用于进行下面数据的预测,test集合如下:



比如我们给出(3.1,5.5)希望模型预测出来的值与我们给定的9.5的差别是多少?这不是重点,重点是我们训练模型过程中的参数更新方法(这是我们这篇文章的重点)批梯度下降以及随机梯度下降代码如何实现。


下面分别来讲:

首先我们看批梯度下降法的代码如下:


这里有可能还是比如抽象,为了让大家更好的弄懂理解这俩个重要的方法,我下面结合例子,一行一行代码解释:


我们看随机梯度下降法的代码如下:



与批梯度下降最大的区别就在于,我们这里更新参数的时候,并没有将所有训练样本考虑进去然后求和除以总数,而是我自己编程实现任取一个样本点代码中random函数就能清楚看到),然后利用这个样本点进行更新!这就是最大的区别!


那么到这个时候,我们也非常容易知道小批量随机梯度下降法的实现就是在这个的基础上,随机取batch个样本,而不是1个样本即可,掌握了本质就非常容易实现!


下面给出这个线性模型所有代码,训练,预测以及结果供参考:

除去上面俩个方法的代码实现,还有预测,以及主逻辑代码如下:

预测代码:



主逻辑代码:



最后运行结果为:



说明与我们给定的真实值是完全对应的。

5三种梯度下降方法的总结

1.批梯度下降每次更新使用了所有的训练数据,最小化损失函数,如果只有一个极小值,那么批梯度下降是考虑了训练集所有数据,是朝着最小值迭代运动的但是缺点是如果样本值很大的话,更新速度会很慢。


2.随机梯度下降在每次更新的时候,只考虑了一个样本点,这样会大大加快训练数据,也恰好是批梯度下降的缺点,但是有可能由于训练数据的噪声点较多,那么每一次利用噪声点进行更新的过程中,就不一定是朝着极小值方向更新,但是由于更新多轮,整体方向还是大致朝着极小值方向更新,又提高了速度。


3.小批量梯度下降法是为了解决批梯度下降法的训练速度慢,以及随机梯度下降法的准确性综合而来,但是这里注意,不同问题的batch是不一样的听师兄跟我说,我们nlp的parser训练部分batch一般就设置为10000,那么为什么是10000呢,我觉得这就和每一个问题中神经网络需要设置多少层,没有一个人能够准确答出,只能通过实验结果来进行超参数的调整。


©著作权归作者所有:来自51CTO博客作者mob604756f42bbf的原创作品,如需转载,请注明出处,否则将追究法律责任

更多相关文章

  1. HTC:Desire HD 的 Android(安卓)4.0 升級沒有取消將如期推出
  2. Android、iOS 市场份额下降?“奇怪数据”背后的原因
  3. Android渲染器Shader:环状放射渐变渲染器RadialGradient(三)
  4. Android Shader类简介之渲染图像示例
  5. android中使用shader实现渐变效果
  6. android 进度条垂直动态上升下降达到警告线改变前景色
  7. android Shader类简介_渲染图像示例
  8. android Shader类简介_渲染图像
  9. 美国二季度智能手机销量下降25% iPhone SE挽颓势

随机推荐

  1. Android的内存泄漏和调试
  2. Android 读取excel (支持 xls和xlsx)
  3. Android 仿IOS搜索框
  4. Android 休眠与唤醒
  5. android 工具类 数据库管理
  6. Android中字体颜色大全-146种(完整版)
  7. android按键模拟测试
  8. android 里面的测量单位
  9. android四种不同的事件实现
  10. 如何隐藏Activity的界面,让其在后台运行