前言

验证曲线是调节学习器的参数的,学习曲线是用来调节训练样本大小的。

从理论上来讲,如果数据“同质”,当数据量到达一定程度时,学习器可以学到所有的“特征”,继续增加样本没有作用。

那么到底多少样本是合适的呢?

做个实验

逐渐增大训练样本量,同时判断训练集和测试集的准确率,看看会发生什么

1. 首先从训练集中拿出1个数据,训练模型,然后在该训练集(1个)和测试集上检验,发现在训练集上误差为0,在测试集上误差很大
2. 然后从训练集中拿出10个数据,训练模型,然后在该训练集(10个)和测试集上检验,发现在训练集上误差增大,在测试集上误差减小
3. 依次…
4. 直到拿出整个训练集,发现模型在训练集上误差越来越大,在测试集上误差越来越小

如图

AI大模型参数优化-学习曲线_语言模型

把训练集大小作为x,误差作为y

AI大模型参数优化-学习曲线_ai_02

训练集误差逐渐增大,测试集误差逐渐减小。

那必然相交或者有个最小距离,此时继续增加样本已然无用,此时模型已无法从样本上学到任何新的东西。

AI大模型参数优化-学习曲线_机器学习_03

示例代码

import numpy as np
import matplotlib.pyplot as plt
from sklearn.naive\_bayes import GaussianNB
from sklearn.svm import SVC
from sklearn.datasets import load\_digits
from sklearn.model\_selection import learning\_curve
from sklearn.model\_selection import ShuffleSplit

def plot\_learning\_curve(estimator, title, X, y, ylim=None, cv=None, train\_sizes=np.linspace(.1, 1.0, 5)):
    plt.figure()
    plt.title(title)
    if ylim is not None:
        plt.ylim(\*ylim)
    plt.xlabel("Training examples")
    plt.ylabel("Score")
    train\_sizes, train\_scores, test\_scores \= learning\_curve(
        estimator, X, y, cv\=cv, train\_sizes=train\_sizes)
    train\_scores\_mean \= np.mean(train\_scores, axis=1)
    train\_scores\_std \= np.std(train\_scores, axis=1)
    test\_scores\_mean \= np.mean(test\_scores, axis=1)
    test\_scores\_std \= np.std(test\_scores, axis=1)
    plt.grid()

    plt.fill\_between(train\_sizes, train\_scores\_mean \- train\_scores\_std,
                     train\_scores\_mean \+ train\_scores\_std, alpha=0.1,
                     color\="r")
    plt.fill\_between(train\_sizes, test\_scores\_mean \- test\_scores\_std,
                     test\_scores\_mean \+ test\_scores\_std, alpha=0.1, color="g")
    plt.plot(train\_sizes, train\_scores\_mean, 'o-', color="r",
             label\="Training score")
    plt.plot(train\_sizes, test\_scores\_mean, 'o-', color="g",
             label\="Cross-validation score")

    plt.legend(loc\="best")
    return plt


digits \= load\_digits()
X, y \= digits.data, digits.target

title \= "Learning Curves (Naive Bayes)"
cv \= ShuffleSplit(n\_splits=100, test\_size=0.2, random\_state=0)
estimator \= GaussianNB()
plot\_learning\_curve(estimator, title, X, y, ylim\=(0.7, 1.01), cv=cv)

title \= "Learning Curves (SVM, RBF kernel, $\\gamma=0.001$)"
cv \= ShuffleSplit(n\_splits=10, test\_size=0.2, random\_state=0)
estimator \= SVC(gamma=0.001)
plot\_learning\_curve(estimator, title, X, y, (0.7, 1.01), cv=cv)

plt.show()

输出

AI大模型参数优化-学习曲线_机器学习_04

AI大模型参数优化-学习曲线_ai_05

事实上,数据“同质”的可能性很小,所以数据量越大越好。