目录
1. K折交叉验证(K-fold cross-validation)
2. 分层K折交叉验证(Stratified K-fold cross-validation)
3. 时间序列交叉验证(Time Series Split)
4. 留一交叉验证(Leave-One-Out Cross-Validation,LOOCV)
5. 留P交叉验证(Leave-P-Out Cross-Validation,LPOCV)
6. 重复K折交叉验证(Repeated K-Fold Cross-Validation)
7. 留出交叉验证(Holdout Cross-Validation)
8. 自助采样交叉验证(Bootstrap Cross-Validation)
9. 蒙特卡洛交叉验证(Monte Carlo Cross-Validation)
10. 重复随机子采样交叉验证(Repeated Random Subsampling Cross-Validation)
方法 | 任务类型 | 划分方式 | 计算量 | 优点 | 缺点 | 适用场景 |
---|---|---|---|---|---|---|
K折交叉验证 | 通用 | 将数据集分为 K 个子集,每次选取一个子集作为验证集 | 中等 | 充分利用数据,可以更准确地评估模型性能 | 计算量较大 | 通用 |
分层K折交叉验证 | 通用 | 类似于 K 折交叉验证,但保持每个折中类别比例 | 中等 | 对于不平衡数据集,保证了每个折中的类别比例 | 计算量较大 | 数据不平衡时 |
时间序列交叉验证 | 时间序列数据 | 根据时间顺序划分数据,保证训练集在测试集之前 | 低 | 考虑了时间序列数据的顺序性,适合于时间序列预测任务 | 不适用于非时间序列数据 | 时间序列预测任务 |
留一交叉验证 | 通用 | 每次将一个样本作为验证集 | 高 | 最大程度利用数据,评估结果准确 | 计算量巨大,效率低下 | 数据集较小时 |
留P交叉验证 | 通用 | 每次留下 P 个样本作为验证集 | 高 | 可以自定义留下的样本数量 P,适用于不同情况 | 计算量较大,效率低下 | 数据集较小时 |
重复K折交叉验证 | 通用 | 对 K 折交叉验证进行多次重复 | 高 | 提供更稳健的评估结果,减少因随机性引起的评估误差 | 计算量更大 | 需要更加稳健的评估结果 |
留出交叉验证 | 通用 | 将数据集划分为训练集和测试集,通常使用固定比例 | 低 | 计算量低,简单易用 | 不充分利用数据 | 数据集较大时 |
自助采样交叉验证 | 通用 | 通过自助采样的方式随机采样训练集 | 高 | 充分利用数据,对于小样本数据集效果好 | 计算量较大,可能会产生相似的训练样本,引入估计偏差 | 数据集较小,或者需要处理小样本数据时 |
蒙特卡洛交叉验证 | 通用 | 随机重复采样和验证 | 高 | 可以得到对数据的全面评估 | 计算量非常大 | 需要对模型进行全面评估时 |
重复随机子采样交叉验证 | 通用 | 通过随机子采样的方式重复采样训练集 | 高 | 充分利用数据,减少因样本选择的随机性引起的评估误差 | 计算量较大,可能会产生相似的训练样本,引入估计偏差 | 数据集较小,或者需要处理小样本数据时 |
1. K折交叉验证(K-fold cross-validation)
- 介绍: 将数据集分成K个大小相似的互斥子集,称为“折叠”(fold)。然后,对模型进行K次训练和测试,在每次训练中,使用K-1个折叠作为训练集,剩下的一个折叠作为测试集。
- 优点: 充分利用数据,减少因数据划分不同而引起的方差;可以评估模型性能的稳定性。
- 缺点: 计算量较大,因为需要训练和测试K次模型。
- 使用场景: 适用于数据量较小,但希望充分利用数据进行模型评估和选择的情况。
- 适用任务: 适用于分类和回归任务。
import numpy as np
from sklearn.model_selection import KFold
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建K折交叉验证对象
kf = KFold(n_splits=2, shuffle=True)
# 遍历每一次交叉验证
for train_index, test_index in kf.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
2. 分层K折交叉验证(Stratified K-fold cross-validation)
- 介绍: 与K折交叉验证类似,但是在每个折叠中,类别比例与整个数据集中的类别比例相同。
- 优点: 在处理不平衡数据集时效果更好,确保每个折叠中类别的分布是相似的。
- 缺点: 对于较大的数据集,可能会导致计算开销增加。
- 使用场景: 适用于处理类别不平衡的分类任务。
- 适用任务: 主要用于分类任务。
import numpy as np
from sklearn.model_selection import StratifiedKFold
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([0, 0, 1, 1])
# 创建分层K折交叉验证对象
skf = StratifiedKFold(n_splits=2, shuffle=True)
# 遍历每一次交叉验证
for train_index, test_index in skf.split(X, y):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
3. 时间序列交叉验证(Time Series Split)
- 介绍: 主要用于时间序列数据,保持数据的时间顺序,将数据集分割成连续的时间段,然后在每个时间段上进行交叉验证。
- 优点: 考虑到了时间顺序的影响,避免了时间序列数据的信息泄露。
- 缺点: 可能无法完全适用于非时间序列数据。
- 使用场景: 适用于时间序列数据的预测任务,如股票价格预测、天气预测等。
- 适用任务: 主要用于时间序列数据的预测任务。
import numpy as np
from sklearn.model_selection import TimeSeriesSplit
# 创建时间序列数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8], [9, 10]])
y = np.array([1, 2, 3, 4, 5])
# 创建时间序列交叉验证对象
tscv = TimeSeriesSplit(n_splits=3)
# 遍历每一次交叉验证
for train_index, test_index in tscv.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
4. 留一交叉验证(Leave-One-Out Cross-Validation,LOOCV)
- 介绍: 将数据集中的每个样本单独作为测试集,其他样本作为训练集,重复进行N次(N为样本数量),最终取平均。
- 优点: 对数据进行了最大程度的利用,可以有效减小因为样本数量较少而引起的方差。
- 缺点: 计算开销较大,因为需要训练和评估N次模型。
- 使用场景: 适用于数据量较小且计算资源充足的情况。
- 适用任务: 适用于分类和回归任务。
import numpy as np
from sklearn.model_selection import LeaveOneOut
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建Leave-One-Out交叉验证对象
loo = LeaveOneOut()
# 遍历每一次交叉验证
for train_index, test_index in loo.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
5. 留P交叉验证(Leave-P-Out Cross-Validation,LPOCV)
- 介绍: 类似于Leave-One-Out交叉验证,但是每次将P个样本作为测试集,其余样本作为训练集,重复进行多次。
- 优点: 在一定程度上减小了计算开销,同时保持了较高的样本利用率。
- 缺点: 计算开销仍然较大,特别是对于大样本量的数据集。
- 使用场景: 适用于数据量较大,但仍希望充分利用数据进行模型评估的情况。
- 适用任务: 适用于分类和回归任务。
import numpy as np
from sklearn.model_selection import LeavePOut
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建Leave-P-Out交叉验证对象
lpocv = LeavePOut(p=2)
# 遍历每一次交叉验证
for train_index, test_index in lpocv.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
6. 重复K折交叉验证(Repeated K-Fold Cross-Validation)
- 介绍: 重复K折交叉验证多次,每次随机重新划分数据集。
- 优点: 能够更好地评估模型的稳定性和泛化性能。
- 缺点: 计算开销较大,因为需要重复多次K折交叉验证。
- 使用场景: 适用于需要更准确评估模型性能和泛化能力的情况。
- 适用任务: 适用于分类和回归任务。
import numpy as np
from sklearn.model_selection import RepeatedKFold
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建Repeated K-fold交叉验证对象
rkf = RepeatedKFold(n_splits=2, n_repeats=2)
# 遍历每一次交叉验证
for train_index, test_index in rkf.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
7. 留出交叉验证(Holdout Cross-Validation)
- 介绍: 将数据集划分为训练集和测试集,通常使用较大比例的数据作为训练集,而剩余部分作为测试集。
- 优点: 简单易用,计算开销小。
- 缺点: 对划分方式较为敏感,可能因为随机性而导致评估结果不稳定。
- 使用场景: 适用于数据量较大的情况,但不适用于数据量较小的情况,因为可能会导致训练集和测试集的样本偏差。
- 适用任务: 主要用于分类和回归任务。
import numpy as np
from sklearn.model_selection import train_test_split
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
8. 自助采样交叉验证(Bootstrap Cross-Validation)
- 介绍: 通过有放回地随机抽样生成多个大小相同的训练集和测试集,然后对每个训练集和测试集进行模型训练和评估。
- 优点: 可以对模型的稳定性和泛化性能进行更准确的评估,特别适用于小样本数据集。
- 缺点: 计算开销较大,因为需要进行多次重采样。
- 使用场景: 适用于小样本数据集和需要对模型稳定性进行更准确评估的情况。
- 适用任务: 主要用于分类和回归任务。
import numpy as np
from sklearn.utils import resample
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建Bootstrap交叉验证对象
n_iterations = 5
n_samples = len(X)
for i in range(n_iterations):
X_train, X_test, y_train, y_test = resample(X, y, n_samples=n_samples, replace=True)
9. 蒙特卡洛交叉验证(Monte Carlo Cross-Validation)
- 介绍: 通过随机地多次将数据集划分为训练集和测试集,并对每次划分进行模型训练和评估。
- 优点: 可以提供更准确的评估结果,对数据集的划分更加灵活。
- 缺点: 计算开销较大,因为需要进行多次随机划分。
- 使用场景: 适用于对模型性能进行更准确评估,并希望对数据集划分进行更灵活控制的情况。
- 适用任务: 主要用于分类和回归任务。
import numpy as np
from sklearn.model_selection import ShuffleSplit
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 创建Monte Carlo交叉验证对象
n_iterations = 5
ss = ShuffleSplit(n_splits=n_iterations, test_size=0.2, random_state=42)
# 遍历每一次交叉验证
for train_index, test_index in ss.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
# 在此处训练和评估模型
10. 重复随机子采样交叉验证(Repeated Random Subsampling Cross-Validation)
- 介绍: 通过多次随机子采样来构建训练集和测试集,每次采样得到不同的训练集和测试集,并重复此过程多次以获得更稳健的评估结果。
- 优点: 能够在不同的训练集和测试集上进行多次评估,提供对模型性能的更加稳健的估计。
- 缺点: 计算成本较高,需要多次重复采样和训练模型。
- 使用场景: 用于需要更稳健的性能评估的情况,或者对模型性能进行一致性验证。
- 适用任务: 通用的机器学习任务,特别是需要对模型性能进行稳健性评估的情况。
import numpy as np
from sklearn.model_selection import ShuffleSplit, cross_val_score
# 创建数据集
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([1, 2, 3, 4])
# 定义重复次数
n_repeats = 5
# 定义随机子采样交叉验证
rss_cv = ShuffleSplit(n_splits=10, test_size=0.3, random_state=42)
# 使用交叉验证评估模型
scores = cross_val_score(model, X, y, cv=rss_cv, n_jobs=-1)
# 输出结果
for i, score in enumerate(scores):
print(f"Cross-validation run {i+1}: {score}")