机器学习第一步,这是一篇手把手的随机森林入门实战

作者: 机器之心 2020-02-17 15:05:28

 到了 2020 年,我们已经能找到很多好玩的机器学习教程。本文则从最流行的随机森林出发,手把手教你构建一个模型,它的完整流程到底是什么样的。

机器学习第一步,这是一篇手把手的随机森林入门实战

作为数据科学家,我们可以通过很多方法来创建分类模型。最受欢迎的方法之一是随机森林。我们可以在随机森林上调整超参数来优化模型的性能。

在用模型拟合之前,尝试主成分分析(PCA)也是常见的做法。但是,为什么还要增加这一步呢?难道随机森林的目的不是帮助我们更轻松地理解特征重要性吗?

当我们分析随机森林模型的「特征重要性」时,PCA 会使每个「特征」的解释变得更加困难。但是 PCA 会进行降维操作,这可以减少随机森林要处理的特征数量,因此 PCA 可能有助于加快随机森林模型的训练速度。

请注意,计算成本高是随机森林的最大缺点之一(运行模型可能需要很长时间)。尤其是当你使用数百甚至上千个预测特征时,PCA 就变得非常重要。因此,如果只想简单地拥有最佳性能的模型,并且可以牺牲解释特征的重要性,那么 PCA 可能会很有用。

现在让我们举个例子。我们将使用 Scikit-learn 的「乳腺癌」数据集,并创建 3 个模型,比较它们的性能:

 1. 随机森林

2. 具有 PCA 降维的随机森林

3. 具有 PCA 降维和超参数调整的随机森林

导入数据

首先,我们加载数据并创建一个 DataFrame。这是 Scikit-learn 预先清理的「toy」数据集,因此我们可以继续快速建模。但是,作为最佳实践,我们应该执行以下操作:

  • 使用 df.head()查看新的 DataFrame,以确保它符合预期。
  • 使用 df.info()可以了解每一列中的数据类型和数据量。可能需要根据需要转换数据类型。
  • 使用 df.isna()确保没有 NaN 值。可能需要根据需要处理缺失值或删除行。
  • 使用 df.describe()可以了解每列的最小值、最大值、均值、中位数、标准差和四分位数范围。

名为「cancer」的列是我们要使用模型预测的目标变量。「0」表示「无癌症」,「1」表示「癌症」。

  1. import pandas as pd 
  2. from sklearn.datasets import load_breast_cancercolumns = ['mean radius''mean texture''mean perimeter''mean area''mean smoothness''mean compactness''mean concavity''mean concave points''mean symmetry''mean fractal dimension''radius error''texture error''perimeter error''area error''smoothness error''compactness error''concavity error''concave points error''symmetry error''fractal dimension error''worst radius''worst texture''worst perimeter''worst area''worst smoothness''worst compactness''worst concavity''worst concave points''worst symmetry''worst fractal dimension']dataset = load_breast_cancer() 
  3. data = pd.DataFrame(dataset['data'], columns=columns) 
  4. data['cancer'] = dataset['target']display(data.head()) 
  5. display(data.info()) 
  6. display(data.isna().sum()) 
  7. display(data.describe()) 

机器学习第一步,这是一篇手把手的随机森林入门实战

上图是乳腺癌 DataFrame 的一部分。每行是一个患者的观察结果。最后一列名为「cancer」是我们要预测的目标变量。0 表示「无癌症」,1 表示「癌症」。

训练集/测试集分割

现在,我们使用 Scikit-learn 的「train_test_split」函数拆分数据。我们想让模型有尽可能多的数据进行训练。但是,我们也要确保有足够的数据来测试模型。通常数据集中行数越多,我们可以提供给训练集的数据越多。

例如,如果我们有数百万行,那么我们可以将其中的 90%用作训练,10%用作测试。但是,我们的数据集只有 569 行,数据量并不大。因此,为了匹配这种小型数据集,我们会将数据分为 50%的训练和 50%的测试。我们设置 stratify = y 以确保训练集和测试集与原始数据集的 0 和 1 的比例一致。

  1. from sklearn.model_selection import train_test_splitX = data.drop('cancer', axis=1)   
  2. y = data['cancer']  
  3. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.50, random_state = 2020, stratify=y) 

规范化数据

在建模之前,我们需要先将数据「居中」和「标准化」,对不同的变量要在相同尺度进行测量。我们进行缩放以便决定预测变量的特征可以彼此「公平竞争」。我们还将「y_train」从 Pandas「Series」对象转换为 NumPy 数组,以供模型稍后接收训练数据。

  1. import numpy as np 
  2. from sklearn.preprocessing import StandardScalerss = StandardScaler() 
  3. X_train_scaled = ss.fit_transform(X_train) 
  4. X_test_scaled = ss.transform(X_test) 
  5. y_train = np.array(y_train) 

拟合「基线」随机森林模型

现在,我们创建一个「基线」随机森林模型。该模型使用 Scikit-learn 随机森林分类器文档中定义的所有预测特征和默认设置。首先,我们实例化模型并使用规范化的数据拟合模型。我们可以通过训练数据测量模型的准确性。

  1. from sklearn.ensemble import RandomForestClassifier 
  2. from sklearn.metrics import recall_scorerfc = RandomForestClassifier() 
  3. rfc.fit(X_train_scaled, y_train) 
  4. display(rfc.score(X_train_scaled, y_train))# 1.0 

如果我们想知道哪些特征对随机森林模型预测乳腺癌最重要,我们可以通过调用「feature_importances _」方法来可视化和量化这些重要特征:

  1. feats = {} 
  2. for feature, importance in zip(data.columns, rfc_1.feature_importances_): 
  3. feats[feature] = importanceimportances = pd.DataFrame.from_dict(feats, orient='index').rename(columns={0'Gini-Importance'}) 
  4. importances = importances.sort_values(by='Gini-Importance', ascending=False) 
  5. importances = importances.reset_index() 
  6. importances = importances.rename(columns={'index''Features'})sns.set(font_scale = 5
  7. sns.set(style="whitegrid", color_codes=True, font_scale = 1.7
  8. fig, ax = plt.subplots() 
  9. fig.set_size_inches(30,15
  10. sns.barplot(x=importances['Gini-Importance'], y=importances['Features'], data=importances, color='skyblue'
  11. plt.xlabel('Importance', fontsize=25, weight = 'bold'
  12. plt.ylabel('Features', fontsize=25, weight = 'bold'
  13. plt.title('Feature Importance', fontsize=25, weight = 'bold')display(plt.show()) 
  14. display(importances) 

机器学习第一步,这是一篇手把手的随机森林入门实战

机器学习第一步,这是一篇手把手的随机森林入门实战

主成分分析(PCA)

现在,我们如何改进基线模型呢?使用降维,我们可以用更少的变量来拟合原始数据集,同时降低运行模型的计算花销。使用 PCA,我们可以研究这些特征的累积方差比,以了解哪些特征代表数据中的最大方差。

我们实例化 PCA 函数并设置我们要考虑的成分(特征)数量。此处我们设置为 30,以查看所有生成成分的方差,并决定在何处切割。然后,我们将缩放后的 X_train 数据「拟合」到 PCA 函数中。

  1. import matplotlib.pyplot as plt 
  2. import seaborn as sns 
  3. from sklearn.decomposition import PCApca_test = PCA(n_components=30
  4. pca_test.fit(X_train_scaled)sns.set(style='whitegrid'
  5. plt.plot(np.cumsum(pca_test.explained_variance_ratio_)) 
  6. plt.xlabel('number of components'
  7. plt.ylabel('cumulative explained variance'
  8. plt.axvline(linewidth=4, color='r', linestyle = '--', x=10, ymin=0, ymax=1
  9. display(plt.show())evr = pca_test.explained_variance_ratio_ 
  10. cvr = np.cumsum(pca_test.explained_variance_ratio_)pca_df = pd.DataFrame() 
  11. pca_df['Cumulative Variance Ratio'] = cvr 
  12. pca_df['Explained Variance Ratio'] = evr 
  13. display(pca_df.head(10)) 

机器学习第一步,这是一篇手把手的随机森林入门实战

该图显示,在超过 10 个特征之后,我们并未获得太多的解释方差。此 DataFrame 显示了累积方差比(解释了数据的总方差)和解释方差比(每个 PCA 成分说明了多少数据的总方差)。

机器学习第一步,这是一篇手把手的随机森林入门实战

从上面的 DataFrame 可以看出,当我们使用 PCA 将 30 个预测变量减少到 10 个分量时,我们仍然可以解释 95%以上的方差。其他 20 个分量仅解释了不到 5%的方差,因此 我们可以减少他们的权重。按此逻辑,我们将使用 PCA 将 X_train 和 X_test 的成分数量从 30 个减少到 10 个。我们将这些重新创建的「降维」数据集分配给「X_train_scaled_pca」和「X_test_scaled_pca」。

  1. pca = PCA(n_components=10
  2. pca.fit(X_train_scaled)X_train_scaled_pca = pca.transform(X_train_scaled) 
  3. X_test_scaled_pca = pca.transform(X_test_scaled) 

每个分量都是原始变量和相应「权重」的线性组合。通过创建一个 DataFrame,我们可以看到每个 PCA 成分的「权重」。

  1. pca_dims = [] 
  2. for x in range(0, len(pca_df)): 
  3. pca_dims.append('PCA Component {}'.format(x))pca_test_df = pd.DataFrame(pca_test.components_, columns=columns, index=pca_dims) 
  4. pca_test_df.head(10).T 

机器学习第一步,这是一篇手把手的随机森林入门实战

PCA 后拟合「基线」随机森林模型

现在,我们可以将 X_train_scaled_pca 和 y_train 数据拟合到另一个「基线」随机森林模型中,测试我们对该模型的预测是否有所改进。

  1. rfc = RandomForestClassifier() 
  2. rfc.fit(X_train_scaled_pca, y_train)display(rfc.score(X_train_scaled_pca, y_train))# 1.0 

第 1 轮超参数调优:RandomSearchCV

实现 PCA 之后,我们还可以通过一些超参数调优来调整我们的随机森林以获得更好的预测效果。超参数可以看作模型的「设置」。两个不同数据集的理想设置并不相同,因此我们必须「调整」模型。

首先,我们可以从 RandomSearchCV 开始考虑更多的超参值。所有随机森林的超参数都可以在 Scikit-learn 随机森林分类器文档中找到。

我们生成一个「param_dist」,其值的范围适用于每个超参数。实例化 RandomSearchCV,首先传入我们的随机森林模型,然后传入「param_dist」、测试迭代次数以及交叉验证次数。

超参数「n_jobs」可以决定要使用多少处理器内核来运行模型。设置「n_jobs = -1」将使模型运行最快,因为它使用了所有计算机核心。

我们将调整这些超参数:

  • n_estimators:随机森林中「树」的数量。
  • max_features:每个分割处的特征数。
  • max_depth:每棵树可以拥有的最大「分裂」数。
  • min_samples_split:在树的节点分裂前所需的最少观察数。
  • min_samples_leaf:每棵树末端的叶节点所需的最少观察数。
  • bootstrap:是否使用 bootstrapping 来为随机林中的每棵树提供数据。(bootstrapping 是从数据集中进行替换的随机抽样。)
  1. from sklearn.model_selection import RandomizedSearchCVn_estimators = [int(x) for x in np.linspace(start = 100, stop = 1000, num = 10)]max_features = ['log2''sqrt']max_depth = [int(x) for x in np.linspace(start = 1, stop = 15, num = 15)]min_samples_split = [int(x) for x in np.linspace(start = 2, stop = 50, num = 10)]min_samples_leaf = [int(x) for x in np.linspace(start = 2, stop = 50, num = 10)]bootstrap = [True, False]param_dist = {'n_estimators': n_estimators, 
  2. 'max_features': max_features, 
  3. 'max_depth': max_depth, 
  4. 'min_samples_split': min_samples_split, 
  5. 'min_samples_leaf': min_samples_leaf, 
  6. 'bootstrap': bootstrap}rs = RandomizedSearchCV(rfc_2,  
  7. param_dist,  
  8. n_iter = 100,  
  9. cv = 3,  
  10. verbose = 1,  
  11. n_jobs=-1,  
  12. random_state=0)rs.fit(X_train_scaled_pca, y_train) 
  13. rs.best_params_ 
  14.  
  15. ———————————————————————————————————————————— 
  16. # {'n_estimators'700
  17. 'min_samples_split'2
  18. 'min_samples_leaf'2
  19. 'max_features''log2'
  20. 'max_depth'11
  21. 'bootstrap': True} 

在 n_iter = 100 且 cv = 3 的情况下,我们创建了 300 个随机森林模型,对上面输入的超参数进行随机采样组合。我们可以调用「best_params」以获取性能最佳的模型参数(如上面代码框底部所示)。

但是,现阶段的「best_params」可能无法为我们提供最有效的信息,以获取一系列参数来执行下一次超参数调整。为了在更大范围内进行尝试,我们可以轻松地获得 RandomSearchCV 结果的 DataFrame。

  1. rs_df = pd.DataFrame(rs.cv_results_).sort_values('rank_test_score').reset_index(drop=True) 
  2. rs_df = rs_df.drop([ 
  3. 'mean_fit_time',  
  4. 'std_fit_time',  
  5. 'mean_score_time'
  6. 'std_score_time',  
  7. 'params',  
  8. 'split0_test_score',  
  9. 'split1_test_score',  
  10. 'split2_test_score',  
  11. 'std_test_score'], 
  12. axis=1
  13. rs_df.head(10

机器学习第一步,这是一篇手把手的随机森林入门实战

现在,让我们在 x 轴上创建每个超参数的柱状图,并针对每个值制作模型的平均得分,查看平均而言最优的值:

  1. fig, axs = plt.subplots(ncols=3, nrows=2
  2. sns.set(style="whitegrid", color_codes=True, font_scale = 2
  3. fig.set_size_inches(30,25)sns.barplot(x='param_n_estimators', y='mean_test_score', data=rs_df, ax=axs[0,0], color='lightgrey'
  4. axs[0,0].set_ylim([.83,.93])axs[0,0].set_title(label = 'n_estimators', size=30, weight='bold')sns.barplot(x='param_min_samples_split', y='mean_test_score', data=rs_df, ax=axs[0,1], color='coral'
  5. axs[0,1].set_ylim([.85,.93])axs[0,1].set_title(label = 'min_samples_split', size=30, weight='bold')sns.barplot(x='param_min_samples_leaf', y='mean_test_score', data=rs_df, ax=axs[0,2], color='lightgreen'
  6. axs[0,2].set_ylim([.80,.93])axs[0,2].set_title(label = 'min_samples_leaf', size=30, weight='bold')sns.barplot(x='param_max_features', y='mean_test_score', data=rs_df, ax=axs[1,0], color='wheat'
  7. axs[1,0].set_ylim([.88,.92])axs[1,0].set_title(label = 'max_features', size=30, weight='bold')sns.barplot(x='param_max_depth', y='mean_test_score', data=rs_df, ax=axs[1,1], color='lightpink'
  8. axs[1,1].set_ylim([.80,.93])axs[1,1].set_title(label = 'max_depth', size=30, weight='bold')sns.barplot(x='param_bootstrap',y='mean_test_score', data=rs_df, ax=axs[1,2], color='skyblue'
  9. axs[1,2].set_ylim([.88,.92]) 

机器学习第一步,这是一篇手把手的随机森林入门实战

通过上面的图,我们可以了解每个超参数的值的平均执行情况。

n_estimators:300、500、700 的平均分数几乎最高;

min_samples_split:较小的值(如 2 和 7)得分较高。23 处得分也很高。我们可以尝试一些大于 2 的值,以及 23 附近的值;

min_samples_leaf:较小的值可能得到更高的分,我们可以尝试使用 2–7 之间的值;

max_features:「sqrt」具有最高平均分;

max_depth:没有明确的结果,但是 2、3、7、11、15 的效果很好;

bootstrap:「False」具有最高平均分。

现在我们可以利用这些结论,进入第二轮超参数调整,以进一步缩小选择范围。

第 2 轮超参数调整:GridSearchCV

使用 RandomSearchCV 之后,我们可以使用 GridSearchCV 对目前最佳超参数执行更精细的搜索。超参数是相同的,但是现在我们使用 GridSearchCV 执行更「详尽」的搜索。

在 GridSearchCV 中,我们尝试每个超参数的单独组合,这比 RandomSearchCV 所需的计算力要多得多,在这里我们可以直接控制要尝试的迭代次数。例如,仅对 6 个参数搜索 10 个不同的参数值,具有 3 折交叉验证,则需要拟合模型 3,000,000 次!这就是为什么我们在使用 RandomSearchCV 之后执行 GridSearchCV,这能帮助我们首先缩小搜索范围。

因此,利用我们从 RandomizedSearchCV 中学到的知识,代入每个超参数的平均最佳执行范围:

  1. from sklearn.model_selection import GridSearchCVn_estimators = [300,500,700
  2. max_features = ['sqrt'
  3. max_depth = [2,3,7,11,15
  4. min_samples_split = [2,3,4,22,23,24
  5. min_samples_leaf = [2,3,4,5,6,7
  6. bootstrap = [False]param_grid = {'n_estimators': n_estimators, 
  7. 'max_features': max_features, 
  8. 'max_depth': max_depth, 
  9. 'min_samples_split': min_samples_split, 
  10. 'min_samples_leaf': min_samples_leaf, 
  11. 'bootstrap': bootstrap}gs = GridSearchCV(rfc_2, param_grid, cv = 3, verbose = 1, n_jobs=-1
  12. gs.fit(X_train_scaled_pca, y_train) 
  13. rfc_3 = gs.best_estimator_ 
  14. gs.best_params_ 
  15.  
  16. ———————————————————————————————————————————— 
  17. # {'bootstrap': False, 
  18. 'max_depth'7
  19. 'max_features''sqrt'
  20. 'min_samples_leaf'3
  21. 'min_samples_split'2
  22. 'n_estimators'500

在这里我们将对 3x 1 x 5x 6 x 6 x 1 = 540 个模型进行 3 折交叉验证,总共是 1,620 个模型!现在,在执行 RandomizedSearchCV 和 GridSearchCV 之后,我们 可以调用「best_params_」获得一个最佳模型来预测我们的数据(如上面代码框的底部所示)。

根据测试数据评估模型的性能

现在,我们可以在测试数据上评估我们建立的模型。我们会测试 3 个模型:

  • 基线随机森林
  • 具有 PCA 降维的基线随机森林
  • 具有 PCA 降维和超参数调优的基线随机森林

让我们为每个模型生成预测结果:

  1. y_pred = rfc.predict(X_test_scaled) 
  2. y_pred_pca = rfc.predict(X_test_scaled_pca) 
  3. y_pred_gs = gs.best_estimator_.predict(X_test_scaled_pca) 

然后,我们为每个模型创建混淆矩阵,查看每个模型对乳腺癌的预测能力:

  1. from sklearn.metrics import confusion_matrixconf_matrix_baseline = pd.DataFrame(confusion_matrix(y_test, y_pred), index = ['actual 0''actual 1'], columns = ['predicted 0''predicted 1'])conf_matrix_baseline_pca = pd.DataFrame(confusion_matrix(y_test, y_pred_pca), index = ['actual 0''actual 1'], columns = ['predicted 0''predicted 1'])conf_matrix_tuned_pca = pd.DataFrame(confusion_matrix(y_test, y_pred_gs), index = ['actual 0''actual 1'], columns = ['predicted 0''predicted 1'])display(conf_matrix_baseline) 
  2. display('Baseline Random Forest recall score', recall_score(y_test, y_pred)) 
  3. display(conf_matrix_baseline_pca) 
  4. display('Baseline Random Forest With PCA recall score', recall_score(y_test, y_pred_pca)) 
  5. display(conf_matrix_tuned_pca) 
  6. display('Hyperparameter Tuned Random Forest With PCA Reduced Dimensionality recall score', recall_score(y_test, y_pred_gs)) 

下面是预测结果:

机器学习第一步,这是一篇手把手的随机森林入门实战

我们将召回率作为性能指标,因为我们处理的是癌症诊断,我们最关心的是将模型中的假阴性预测误差最小。

考虑到这一点,看起来我们的基线随机森林模型表现最好,召回得分为 94.97%。根据我们的测试数据集,基线模型可以正确预测 179 名癌症患者中的 170 名。

这个案例研究提出了一个重要的注意事项:有时,在 PCA 之后,甚至在进行大量的超参数调整之后,调整的模型性能可能不如普通的「原始」模型。但是尝试很重要,你不尝试,就永远都不知道哪种模型最好。在预测癌症方面,模型越好,可以挽救的生命就更多。

机器学习 人工智能 计算机
上一篇:战疫下的无人机:监控、空中防控、硬核劝返 下一篇:加速算力的迭代优化 AI芯片需破解落地难题
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

AI和Wi-Fi 6:推动家庭Wi-Fi的革命

机器学习和Wi-Fi 6结合最有效的一个领域是减少家庭Wi-Fi网络的延迟,从而实现云游戏和云VR服务之类的高价值服务。

lunar ·  1天前
AI批改英语作文行不行?雅思考研四六级,打分评语纠错都得有

如果AI真的能准确评分,甚至给出修改意见,那像我一样的同学们不就能随时随地把英语作文练到飞起了吗?

茕茕 ·  1天前
关于人工智能的十二条名人名言

我们将援引世界上众多最伟大思想家的名言,了解他们如何看待人工智能这一意义深远的主题。希望这些名言有助于阐明AI主旨、涵盖范围、潜在挑战以及蕴藏于其中的巨大能量。

佚名 ·  1天前
自我监督学习:AI技术的未来发展方向

尽管深度学习已经在人工智能领域做出重大贡献,但这项技术本身仍存在一项致命缺陷:需要大量数据的加持。

佚名 ·  1天前
李飞飞团队研发家用AI系统 可监测独居老人新冠症状

日前,在斯坦福大学以人为本人工智能学院(HAI)的一场直播上,斯坦福大学计算机学教授李飞飞向外界介绍了人工智能家用系统,它可以跟踪居民的健康状况,包括新冠肺炎的症状,同时还能确保隐私。

王心馨 ·  2天前
AI技术在医药行业中的作用越来越大

AI可以帮助科学家和生物技术专家简化药物发现和开发的过程,协助诊断,并使通常会浪费时间和人力资源的重复性工作任务自动化……

佚名 ·  2天前
2025年智慧城市AI软件市场将增长700%

分析师机构Omdia的最新分析显示,全球智能城市人工智能(AI)软件市场将从2019年的6.738亿美元增长到2025年的49亿美元,这意味着七倍的增长。

佚名 ·  2天前
实现人工智能价值的5个障碍以及克服它们的方法

正如媒体所报道的,在实施人工智能的过程中确实存在着技术障碍,因而BCG和Gartner的专家们讨论了在企业中部署人工智能的五个陷阱,以及成功的解决方案。

Clint Boulton ·  2天前
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载