首页 深度学习基础(基本超参数和优化器)
文章
取消

深度学习基础(基本超参数和优化器)

本文介绍了深度学习中的基本概念,包括 batch、epoch、iteration、optimizer等,其中优化器包括 BGD、SGD、Adam等,为后深度学习提供基础。


1. 基本超参数

batch(minibatch)、batch_sizeepochiteration是深度学习中常见的几个超参数[1]:

  • batch:训练的批次,训练的总批次数称为 batch_number(也就是后面的iteration);

  • batch_size:每批(batch)训练使用的样本的个数。也就是一次训练 batch_size 个样本,计算它们的平均损失函数值,更新参数;
  • iteration:一个 iteration 即迭代训练一次,也就是用 batch_size 个样本训练一次。(iteration = batch_number);
  • epoch:一个 epoch 指用训练集中的全部样本训练一次。

简单一句话说就是,我们有2000个数据,分成4个batch,那么batch_size就是500。运行所有的数据进行训练,完成1个epoch,需要进行4次iterations,也即batch_number=4。

1.1. epoch

一个 epoch 指将训练集中全部样本送入神经网络完成一次训练(前向计算及反向传播)的过程。在实际训练时,将所有训练集数据迭代训练一次是不够的,需要反复多次才能拟合收敛。因此,往往设置多次epoch进行训练。

随着epoch数量的增加,神经网络中权重更新迭代的次数增多,曲线从最开始的不拟合状态,慢慢进入优化拟合状态,最终进入过拟合。因此,epoch的个数是非常重要的。那么究竟设置为多少才合适呢?恐怕没有一个确切的答案。对于不同的数据库来说,epoch数量是不同的。但是,epoch大小与数据集的多样化程度有关,多样化程度越强,epoch应该越大。

1.2. batch & batch_size

由于训练集中所有样本的数据往往很大,如果一次就将训练集中的所有样本数据送入计算机,计算机将无法负荷。因此,一般会将整个训练集数据分成几个较小的批(batches),每批采用一定数量的样本进行训练。batch_size 即为每批训练使用的样本的个数。

1.3. iteration

一个 iteration 指采用 batch_size 个样本训练一次的过程。

2. 优化器

2.1. 批量梯度下降(BGD)

最早期的机器学习采用批量梯度下降(Batch Gradient Decent,BGD)进行参数更新[2]。梯度下降法在每个 epoch 中需要对全部样本进行梯度计算,然后取平均值进行权值更新。即 batch_size 等于训练集样本个数。当数据集较小时该方法尚可。随着数据集迅速增大,这种方法一次开销大进而占用内存过大,速度过慢。

Batch gradient descent 对于凸函数可以收敛到全局极小值,对于非凸函数可以收敛到局部极小值。

2.2. 随机梯度下降(SGD)

后来产生了一次只训练一个样本的方法(batchsize=1),称为随机梯度下降(Stochastic Gradient Decent,SGD)。该方法根据每次只使用一个样本的情况更新一次权值,开销小速度快,但由于单个样本的巨大随机性,全局来看优化性能较差,收敛速度很慢,产生局部震荡,有限迭代次数内很可能无法收敛。

SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。缺点是SGD的噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。所以虽然训练速度快,但是准确度下降,并不是全局最优。虽然包含一定的随机性,但是从期望上来看,它是等于正确的导数的。

2.3. 小批量梯度下降(MBGD)

后来诞生的小批量梯度下降(Mini-Batch Gradient Descent ,MBGD),相当于上述两个“极端”方法的折中:将训练集分成多个mini_batch(即常说的batch),一次迭代训练一个minibatch(即batch_size个样本),根据该batch数据的loss更新权值。

MBGD 每一次利用一小批样本,即 batch_size 个样本进行计算,这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。

2.4. 梯度下降的缺点

两大缺点[3]:

  • MBGD不能保证很好的收敛性,learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。)对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。(会在鞍点或者局部最小点震荡跳动,因为在此点处,如果是训练集全集带入即 BGD,则优化会停止不动,如果是 mini-batch 或者 SGD,每次找到的梯度都是不同的,就会发生震荡,来回跳动。)
  • SGD对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。learning rate 会随着更新的次数逐渐变小。

2.5. 动量(Momentum)

为了应对第一个缺点,采用动量优化器,可以使得梯度方向不变的维度上速度变快,梯度方向有所改变的维度上的更新速度变慢,这样就可以加快收敛并减小震荡。

\[\begin{aligned} v_{d\omega}&=\beta v_{d\omega}+(1−\beta)d\omega \\ v_{db}&=\beta v_{db}+(1−\beta)db \\ \omega&=\omega−\eta v_{d\omega} \\ b&=b−\eta v_{db} \\ \end{aligned}\]

其中,在上面的公式中$v_{d\omega}$和$v_{db}$分别是损失函数在前 $t−1$ 轮迭代过程中累积的梯度梯度动量,$\beta$ 是梯度累积的一个指数,这里我们一般设置值为0.9。所以Momentum优化器的主要思想就是利用了类似与移动指数加权平均的方法来对网络的参数进行平滑处理的,让梯度的摆动幅度变得更小。$d\omega$和$db$分别是损失函数反向传播时候所求得的梯度,下面两个公式是网络权重向量和偏置向量的更新公式,$\eta$ 是网络的学习率。

当我们使用 Momentum 优化算法的时候,可以解决 mini-batch SGD 优化算法更新幅度摆动大的问题,同时可以使得网络的收敛速度更快。

2.6. RMSProp

RMSProp算法的全称叫 Root Mean Square Prop,是Geoffrey E. Hinton在Coursera课程中提出的一种优化算法,是对Momentum优化算法的进一步优化。为了进一步优化损失函数在更新中存在摆动幅度过大的问题,并且进一步加快函数的收敛速度,RMSProp算法对权重 $W$ 和偏置 $b$ 的梯度使用了指数加权平均数。

其中,假设在第 $t$ 轮迭代过程中,各个公式如下所示

\[\begin{aligned} s_{d\omega}&=\beta s_{d\omega}+(1−\beta)d\omega^2 \\ s_{d\omega}&=\beta s_{db}+(1−\beta)db^2 \\ \omega&=\omega−\eta \frac{d\omega}{\sqrt{s_{d\omega}}+\epsilon} \\ b&=b−\eta \frac{db}{\sqrt{s_{db}}+\epsilon} \\ \end{aligned}\]

这个分母相当于梯度的均方根 (Root Mean Squared,RMS)。RMSProp算法对梯度计算了微分平方加权平均数。这种做法有利于消除了摆动幅度大的方向,用来修正摆动幅度,使得各个维度的摆动幅度都较小。另一方面也使得网络函数收敛更快。(比如当 $d\omega$ 或者 $db$ 中有一个值比较大的时候,那么我们在更新权重或者偏置的时候除以它之前累积的梯度的平方根,这样就可以使得更新幅度变小)。为了防止分母为零,使用了一个很小的数值 $\epsilon$ 来进行平滑,一般取值为$10^{−8}$。

2.7. Adam

有了上面两种优化算法,一种可以使用类似于物理中的动量来累积梯度,另一种可以使得收敛速度更快同时使得波动的幅度更小。那么讲两种算法结合起来所取得的表现一定会更好。Adam(Adaptive Moment Estimation)算法是将Momentum算法和RMSProp算法结合起来使用的一种算法,我们所使用的参数基本和上面讲的一致,在训练的最开始我们需要初始化梯度的累积量和平方累积量[4]。

假设在训练的第 $t$ 轮训练中,我们首先可以计算得到Momentum和RMSProp的参数更新

\[\begin{aligned} v_{d\omega}&=\beta_1 v_{d\omega}+(1−\beta_1)d\omega \\ v_{db}&=\beta_1 v_{db}+(1−\beta_1)db \\ s_{d\omega}&=\beta s_{d\omega}+(1−\beta)d\omega^2 \\ s_{d\omega}&=\beta s_{db}+(1−\beta)db^2 \\ \end{aligned}\]

参数 $\beta_1$ 所对应的就是Momentum算法中的 $\beta$ 值,一般取0.9;参数 $\beta_2$ 所对应的就是RMSProp算法中的 $\beta$ 值,一般取0.999。

由于移动指数平均在迭代开始的初期会导致和开始的值有较大的差异,所以我们需要对上面求得的几个值做偏差修正

\[\begin{aligned} v^c_{d\omega}&=\frac{v_{d\omega}}{1−\beta^t_1} \\ v^c_{db}&=\frac{v_{d b}}{1−\beta^t_1} \\ s^c_{d\omega}&=\frac{s_{d\omega}}{1−\beta^t_2} \\ s^c_{db}&=\frac{s_{db}}{1−\beta^t_2} \\ \end{aligned}\]

通过上面的公式,我们就可以求得在第 $t$ 轮迭代过程中,参数梯度累积量的修正值,从而接下来就可以根据Momentum和RMSProp算法的结合来对权重和偏置进行更新

\[\begin{aligned} \omega&=\omega−\eta \frac{v^c_{d\omega}}{\sqrt{s_{d\omega}}+\epsilon} \\ b&=b−\eta \frac{v^c_{db}}{\sqrt{s_{db}}+\epsilon} \\ \end{aligned}\]

其中 $\epsilon$ 是一个平滑项,我们一般取值为 $10^{−8}$,学习率 $\eta$ 则需要我们在训练的时候进行微调。

3. 参考文献

[1] XDTY17_LK. 深度学习中的Epoch,Batchsize,Iterations,都是什么鬼?.

[2] LLLiuye. 批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解.

[3] 郭耀华. 深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam).

[4] William. 深度学习优化算法解析(Momentum, RMSProp, Adam)).

本文由作者按照 CC BY 4.0 进行授权

日常tips手册(Typora标题自动编号)

Python基础(万恶的下划线)