Model Training
文章目录
介绍模型选择的两种方法:交叉检验和正则化。使用交叉检验(K-fold cross validation)进行选择模型并不难理解,但正则化和模型选择的关系,一开始还不是很理解,所以通过整理,希望能带来一些启发。
为什么进行数据集的划分?
防止过拟合
对于一个模型来说,其参数可以分为普通参数和超参数。
- 在不引入强化学习的前提下,普通参数是可以被梯度下降所更新的,也就是训练集所更新的参数
- 超参数,比如网络的层数,网络节点数,迭代次数,学习率等,尽管是有一些算法可以用来搜索超参数,但多数情况下还是人工根据验证集来调整超参数。
交叉检验
常见的共有三种数据集的划分方式。
(1)留出法(Holdout cross validation):
直接将原始的样本集合随机划分成训练集和测试集两部分。比方说,对于一个点击量预测模型,我们把样本按照70%~30%的比例分成两部分,70%的样本用于模型训练;30%的样本用于模型测试,包括绘制ROC曲线、计算精确率和召回率等指标来评估模型性能; 该方法有两大缺点:
- 最终模型和参数的选取依赖于你对于训练集和测试集的划分
- 该方法只使用了部分数据进行模型的训练,对于训练集本身就比较小的情况,那么模型的效果会受影响
当我们拿到数据之后,一般可以划分为:训练集(60%),验证集(20%) 和测试集(20%)。用训练集训练模型,也能够验证集验证模型,根据情况调整模型的超参数,选择最好的模型,然后使用(训练集+验证集)训练一个新的模型,作为最终模型,最后使用测试集用来评估最后的效果。一般我们只会使用 test 数据集去评估模型的表现,而不会去调整优化模型。
这种将数据集静态 划分成训练集、验证集和测试集的方式就是留出法。
(2)留一验证(LOOV, leave one out cross validation)
每次留下一个样本作为验证集,其余所有样本作为测试集,那么产生了 $n$个模型。而测试误差的计算是将 $n$个模型取平均。 $$ \begin{equation} CV_{(n)}=\frac{1}{n} \sum_{i=1}^{n} MSE_{i} \end{equation} $$
优点: 1). 不受训练集和测试集划分影响,所有的数据都做过测试集。 2). 每次训练激活使用到了所有的数据,保证了模型的偏差(bias)很小 缺点: 计算量过于大,是holdout 方法的 $n-1$倍
(3)K-fold交叉验证(cross validation)
首先将全部样本划分成k个大小相等的样本子集;一次遍历这k个子集,每次把当前子集作为验证集,其余所有子集作为训练集,进行模型的训练和评估;最后把k次评估指标的平均值作为最终的评估指标。在实验中,k经常取10. 比如说 $k =10$,那么就利用十折交叉验证的方法:
- 不重复抽样将原始数据随机分为 k 份。 每一次挑选其中 1 份作为测试集,剩余 k-1 份作为训练集用于模型训练。
- 重复第二步 k 次,这样每个子集都有一次机会作为测试集,其余机会作为训练集。
- 在每个训练集上训练后得到一个模型,用这个模型在相应的测试集上测试,计算并保存模型的评估指标,
- 计算 k 组测试结果的平均值作为模型精度的估计,并作为当前 k 折交叉验证下模型的性能指标。
当 K =10 的时候 ,训练数据D被分为了10 份,每次取其中9份数据作为训练集,1份作为测试集,最终将循环后所有的评估结果取平均。
其中的 cross validation(交叉),即把一部分数据当做了训练数据集,一部分当做了测试数据集,体现了交叉的思想。
静态【留出法】对数据的划分方式比较敏感,可能不同的划分方式得到不同的模型。【k 折交叉验证】是一种动态验证的方式,这种方式可以 降低数据划分带来的影响。具体步骤如下:
- 将数据集分为训练集和测试集,将测试集放在一边
- 将训练集分为 k 份
- 每次使用 k 份中的 1 份作为验证集,其他全部作为训练集。
- 通过 k 次训练后,我们得到了 k 个不同的模型。
- 评估 k 个模型的效果,从中挑选效果最好的超参数
- 使用最优的超参数,然后将 k 份数据全部作为训练集重新训练模型,得到最终模型。
k 一般取 10 数据量小的时候, k 可以设置大一些,这样训练集占整体的比例就大一些;如果数据量大的时候,k 可以设置小一些。
(4)关于k 值的选择
K越大,每次投入的训练集的数据越多,模型的Bias越小。但是K越大,又意味着每一次选取的训练集之前的相关性越大(考虑最极端的例子,当k=N,也就是在LOOCV(叫做留一法)里,每次都训练数据几乎是一样的)。而这种大相关性会导致最终的test error具有更大的Variance。 一般来说,根据经验我们一般选择k=5或10。当数据量比较大的时候,k值可以小点;当数据量比较小的时候,k值需要大点。
(5)如何去理解交叉验证呢?
简单的说是可以从方差和偏差的角度进行分析。当k =1,全部的数据被用于训练,容易出现过拟合,容易出现低偏差、高方差的;当k =n,也被称为留一法,偏差升高了而方差是减少了。所以说取值范围的变化可以看做是偏差和方差相互妥协的过程。
需要牢记以下几点:
(1)数据代表性:我们希望训练数据集和测试数据集能够具有很好的代表性。因此我们在划分数据集的时候,一定要将现有的数据集进行随机打乱。(保证独立同分布)
(2)数据冗余:如果数据中的某些样本出现两次,那么打乱数据之后训练集和验证集之间可能有数据冗余。这样不能保证训练集和验证集是不相关的。
正则化角度
模型训练过程中很容易出现过拟合,根本原因是模型的复杂度远小于数据量,模型的复杂度和训练误差于测试误差的关系如下图所示。
从图中可以看到, 随着模型复杂度的提高,训练误差是不断下降的,但测试误差是先下降后上升的。模型选择 的经典方法是正则化。正则化的作用是选择经验风险于模型复杂度同时较小的模型。也可以说,在所有可以选择的模型中,能够很好的解释数据并且十分简单的才是好模型。
学习方法的泛化能力是指由该方法学习到的模型对未知数据的预测能力,是学习方法本质上重要的性质。现实中采用最多的方法是通过测试误差来评价学习方法的泛化能力。
结构化风险
要区分这三个概念,首先要引入一个损失函数的概念。损失函数是期望风险、经验风险和结构风险的基础。
损失函数是针对单个具体的样本而言的。表示的是模型预测的值与样本真实值之间的差距。比如对于某个样本$(x_i, y_i)$,其真实的值为Yi,而我们的模型选择决策函数为 $f $,那么通过模型预测的值为$ f(x_i)$;损失函数就是用来表示$y_i$与$ f(x_i)$之间的差距的,我们用函数 $L(f(x_),y_i) $来衡量。我们希望的是这个L函数最小化。理想的情况是我们的模型决策函数预测值$f(x_i)$刚好等于该样本的真值 $y_i$。常见的损失函数有: 平方损失函数、绝对值损失函数和对数损失函数。
通过损失函数我们只能知道模型决策函数 $f(x) $对于单个样本点的预测能力(借用损失函数 $L(y ,f(x)) $,损失函数越小,说明模型对于该样本预测越准确。),那么如果想知道模型 $f(x) $对训练样本中所有的样本的预测能力应该怎么办呢?显然只需所有的样本点都求一次损失函数然后进行累加就好了。如下式 $$ R_{exp}(f)=\frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) $$
$$ R_{exp}(f)=\frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) $$
这就经验风险,所谓的经验风险最小化便是让这个式子最小化,注意这个式子中累加和的上标N表示的是训练样例集中样本的数目。
经验风险是对训练集中的所有样本点损失函数的平均最小化。经验风险越小说明模型f(X)对训练集的拟合程度越好,但是对于未知的样本效果怎么样呢?我们知道未知的样本数据$(x, y)$的数量是不容易确定的,所以就没有办法用所有样本损失函数的平均值的最小化这个方法,那么怎么来衡量这个模型对所有的样本(包含未知的样本和已知的训练样本)预测能力呢?熟悉概率论的很容易就想到了用期望。即假设 $x $和 $y $服从联合分布 $P(x ,y) $.那么期望风险就可以表示为:
$$ R_{exp}(f)=E_{P}[L(Y, f(X))]=\int_{\mathrm{x \times y}} L(y, f(x)) P(x, y) d x d y $$
这就是期望风险,期望风险表示的是全局的概念,表示的是决策函数对所有的样本 $x,y $预测能力的大小,而经验风险则是局部的概念,仅仅表示决策函数对训练数据集里样本的预测能力。理想的模型(决策)函数应该是让所有的样本的损失函数最小的(也即期望风险最小化),但是期望风险函数往往是不可得到的,即上式中, $x $与 $ y $的联合分布函数不容易得到。现在我们已经清楚了期望风险是全局的,理想情况下应该是让期望风险最小化,但是呢,期望风险函数又不是那么容易得到的。怎么办呢?那就用局部最优的代替全局最优这个思想吧。这就是经验风险最小化的理论基础。
通过上面的分析可以知道,经验风险与期望风险之间的联系与区别。现在在总结一下:
经验风险是局部的,基于训练集所有样本点损失函数最小化的。
期望风险是全局的,是基于所有样本点的损失函数最小化的。
经验风险函数是现实的,可求的;
期望风险函数是理想化的,不可求的;
只考虑经验风险的话,会出现过拟合的现象,过拟合的极端情况便是模型f(x)对训练集中所有的样本点都有最好的预测能力,但是对于非训练集中的样本数据,模型的预测能力非常不好。怎么办呢?这个时候就引出了结构风险。结构风险是对经验风险和期望风险的折中。在经验风险函数后面加一个正则化项(惩罚项)便是结构风险了。如下式:
$$ R_{\mathrm{em}}(f)=\frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right)+\lambda J(f) $$
相比于经验风险,结构风险多了一个惩罚项,其中是一个 $\lambda $是一个大于0的系数。$J(f) $表示的是是模型f的复杂度。结构风险可以这么理解:
经验风险越小,模型决策函数越复杂,其包含的参数越多,当经验风险函数小到一定程度就出现了过拟合现象。也可以理解为模型决策函数的复杂程度是过拟合的必要条件,那么我们要想防止过拟合现象的方式,就要破坏这个必要条件,即降低决策函数的复杂度。也即,让惩罚项 $J(f) $最小化,现在出现两个需要最小化的函数了。我们需要同时保证经验风险函数和模型决策函数的复杂度都达到最小化,一个简单的办法把两个式子融合成一个式子得到结构风险函数然后对这个结构风险函数进行最小化。
常见的说法:
极大似然估计是经验风险最小化的一个例子,当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就等于极大似然估计。(但是,当样本量很小时,经验风险最小化学习的效果未必很好,会产生后面叙述的“过拟合”现象。)
结构风险最小化是为了防止过拟合而提出来的 策略。结构风险最小化等价于正则项或罚项。
贝叶斯估计中的最大后验概率估计(MAP,maximum posterior probability estimation)就是结构风险最小化的一个例子。当模型是条件概率分布、损失函数是对数损失函数、模型复杂度由模型的先验概率表示时,结构风险最小化就等价于最大后验概率估计。
文章作者 jijeng
上次更新 2019-01-18