当前位置: 首页 > news >正文

礼品网站建设阿里云网站如何建设

礼品网站建设,阿里云网站如何建设,yahoo引擎入口,重庆网站推广免费软件目录 1. 探索参数空间 1.1 学习曲线 1.2. 决策树对象Tree 2. 使用网格搜索在随机森林上进行调参 1. 探索参数空间 随机森林集成算法的超参数种类繁多、取值丰富#xff0c;且参数之间会相互影响、共同作用于算法的最终结果#xff0c;因此集成算法的调参是一个难度很高的过…目录 1. 探索参数空间 1.1 学习曲线 1.2. 决策树对象Tree 2. 使用网格搜索在随机森林上进行调参 1. 探索参数空间 随机森林集成算法的超参数种类繁多、取值丰富且参数之间会相互影响、共同作用于算法的最终结果因此集成算法的调参是一个难度很高的过程。在超参数优化还未盛行的时候随机森林的调参是基于方差-偏差理论variance-bias trade-off和学习曲线完成的而现在可以依赖于网格搜索来完成自动优化。在对任意算法进行网格搜索时需要明确两个基本事实一是参数对算法结果的影响力大小二是用于进行搜索的参数空间。 对随机森林来说各个参数对算法的影响排列大致如下 影响力参数⭐⭐⭐⭐⭐ 几乎总是具有巨大影响力n_estimators整体学习能力 max_depth粗剪枝 max_features随机性⭐⭐⭐⭐ 大部分时候具有影响力max_samples随机性 class_weight样本均衡⭐⭐ 可能有大影响力 大部分时候影响力不明显min_samples_split精剪枝 min_impurity_decrease精剪枝 max_leaf_nodes精剪枝 criterion分枝敏感度⭐ 当数据量足够大时几乎无影响random_state ccp_alpha结构风险 随机森林在剪枝方面的空间总是很大的因为默认参数下树的结构基本没有被影响也就是几乎没有剪枝因此当随机森林过拟合的时候我们可以尝试粗、精、随机等各种方式来影响随机森林。通常在网格搜索当中我们会考虑所有有巨大影响力的参数、以及1~2个影响力不明显的参数。 虽然随机森林调参的空间较大但大部分时候在调参过程中依然难以突破因为树的集成模型的参数空间非常难以确定。当没有数据支撑时人们很难通过感觉或经验来找到正确的参数范围。举例来说我们也很难直接判断究竟多少棵树对于当前的模型最有效同时我们也很难判断不剪枝时一棵决策树究竟有多深、有多少叶子、或者一片叶子上究竟有多少个样本更不要谈凭经验判断树模型整体的不纯度情况了。可以说当森林建好之后我们简直是对森林一无所知。对于网格搜索来说新增一个潜在的参数可选值计算量就会指数级增长因此找到有效的参数空间非常重要。此时我们就要引入两个工具来帮助我们学习曲线 and 决策树对象Tree的属性。 1.1 学习曲线 学习曲线是以参数的不同取值为横坐标模型的结果为纵坐标的曲线。当模型的参数较少、且参数之间的相互作用较小时我们可以直接使用学习曲线进行调参。但对于集成算法来说学习曲线更多是探索参数与模型关系的关键手段。许多参数对模型的影响是确定且单调的例如n_estimators树越多模型的学习能力越强再比如ccp_alpha该参数值越大模型抗过拟合能力越强因此我们可能通过学习曲线找到这些参数对模型影响的极限并围绕这些极限点来构筑参数空间。 Option [1,*range(5,101,5)] #生成保存模型结果的arrays trainRMSE np.array([]) testRMSE np.array([]) trainSTD np.array([]) testSTD np.array([]) for n_estimators in Option:#按照当下的参数实例化模型reg_f RFR(n_estimatorsn_estimators,random_state1412)#实例化交叉验证方式输出交叉验证结果cv KFold(n_splits5,shuffleTrue,random_state1412)result_f cross_validate(reg_f,x,y,cvcv,scoringneg_mean_squared_error,return_train_scoreTrue)#根据输出的MSE进行RMSE计算train abs(result_f[train_score])**0.5test abs(result_f[test_score])**0.5#将本次交叉验证中RMSE的均值、标准差添加到arrays中进行保存trainRMSE np.append(trainRMSE,train.mean())testRMSE np.append(testRMSE,test.mean())trainSTD np.append(trainSTD,train.std())testSTD np.append(testSTD,test.std()) def plotCVresult(Option,trainRMSE,testRMSE,trainSTD,testSTD):#一次交叉验证下RMSE的均值与std的绘图xaxis Optionplt.figure(figsize(8,6),dpi80)#RMSEplt.plot(xaxis,trainRMSE,colork,label RandomForestTrain)plt.plot(xaxis,testRMSE,colorred,label RandomForestTest)#标准差 - 围绕在RMSE旁形成一个区间plt.plot(xaxis,trainRMSEtrainSTD,colork,linestyledotted)plt.plot(xaxis,trainRMSE-trainSTD,colork,linestyledotted)plt.plot(xaxis,testRMSEtestSTD,colorred,linestyledotted)plt.plot(xaxis,testRMSE-testSTD,colorred,linestyledotted)plt.xticks([*xaxis])plt.legend(loc1)plt.show() plotCVresult(Option,trainRMSE,testRMSE,trainSTD,testSTD) 当绘制学习曲线时可以很容易找到泛化误差开始上升或转变为平稳趋势的转折点。因此我们可以选择转折点或转折点附近的n_estimators取值例如20。然而n_estimators会受到其他参数的影响例如单棵决策树的结构更简单时(依赖剪枝时)或单棵决策树训练的数据更简单时(依赖随机性时)可能需要更多树。因此n_estimators的参数空间可以被确定为range(20,100,5)如果比较保守甚至可以确认为是range(15,25,5)。 1.2. 决策树对象Tree 在sklearn中树模型是单独的一类对象每个树模型背后都有一套完整的属性供我们调用包括树的结构、树的规模等众多细节。随机森林是树组成的算法因此也可以调用这些属性。 #训练一个随机森林 reg_f RFR(n_estimators10,random_state1412) reg_f reg_f.fit(x,y) 属性.estimators_ reg_f.estimators_ #返回一片随机森林中所有的树 [DecisionTreeRegressor(max_features1.0, random_state1608637542),DecisionTreeRegressor(max_features1.0, random_state1273642419),DecisionTreeRegressor(max_features1.0, random_state1935803228),DecisionTreeRegressor(max_features1.0, random_state787846414),DecisionTreeRegressor(max_features1.0, random_state996406378),DecisionTreeRegressor(max_features1.0, random_state1201263687),DecisionTreeRegressor(max_features1.0, random_state423734972),DecisionTreeRegressor(max_features1.0, random_state415968276),DecisionTreeRegressor(max_features1.0, random_state670094950),DecisionTreeRegressor(max_features1.0, random_state1914837113)] reg_f.estimators_[0] #使用索引单独提取一棵树 DecisionTreeRegressor(max_features1.0, random_state1608637542) 属性.max_depth reg_f.estimators_[0].tree_.max_depth #查看第一棵树的实际深度 21 #对随机森林中所有树查看实际深度 for t in reg_f.estimators_:print(t.tree_.max_depth) 21 23 24 19 22 25 21 21 22 22 如果树的数量较多也可以查看平均或分布 reg_f RFR(n_estimators100,random_state1412) reg_f reg_f.fit(x,y) d pd.Series([],dtypeint64) for idx,t in enumerate(reg_f.estimators_):d[idx] t.tree_.max_depthd.describe() count 100.000000 mean 22.250000 std 1.955954 min 19.000000 25% 21.000000 50% 22.000000 75% 23.000000 max 30.000000 dtype: float64 假设现在随机森林过拟合max_depth的最大深度范围设置在[15,25]之间就会比较有效如果希望激烈地剪枝则可以设置在[10,15]之间。 相似的也可以调用其他属性来辅助我们调参 参数参数含义对应属性属性含义n_estimators树的数量reg.estimators_森林中所有树对象max_depth允许的最大深度.tree_.max_depth树实际的深度max_leaf_nodes允许的最大 叶子节点量.tree_.node_count树实际的总节点量min_sample_split分枝所需最小样本量.tree_.n_node_samples每片叶子上实际的样本量min_weight_fraction_leaf分枝所需最小 样本权重tree_.weighted_n_node_samples每片叶子上实际的样本权重min_impurity_decrease分枝所需最小 不纯度下降量.tree_.impurity .tree_.threshold每片叶子上的实际不纯度 每个节点分枝后不纯度下降量 属性.tree_.node_count #所有树上的总节点数 for t in reg_f.estimators_:print(t.tree_.node_count) 1807 1777 1763 1821 1777 1781 1811 1771 1753 1779 属性.tree_.threshold #每个节点上的不纯度下降量为负数则表示该节点是叶子节点 reg_f.estimators_[0].tree_.threshold.tolist()[:20] [6.5,5.5,327.0,214.0,0.5,1.0,104.0,0.5,-2.0,-2.0,-2.0,105.5,28.5,0.5,1.5,-2.0,-2.0,11.0,1212.5,2.5] #min_impurity_decrease的范围设置多少会剪掉多少叶子 pd.Series(reg_f.estimators_[0].tree_.threshold).value_counts().sort_index() -2.0 9040.5 431.0 321.5 562.0 32... 1118.5 11162.5 11212.5 21254.5 11335.5 1 Length: 413, dtype: int64 根据结果显示对于第一棵树有904个叶子节点有43个节点不纯度下降为0.5依此类推…… pd.set_option(display.max_rows,None) np.cumsum(pd.Series(reg_f.estimators_[0].tree_.threshold).value_counts().sort_index()[1:]) 从这棵树反馈的结果来看min_impurity_decrease在现有数据集上至少要设置到[2,10]的范围才可能对模型有较大的影响。 更多属性可以参考 from sklearn.tree._tree import Tree help(Tree) 现在模型正处于过拟合的状态需要抗过拟合且整体数据量不是非常多随机抽样的比例不宜减小因此我们挑选以下五个参数进行搜索n_estimatorsmax_depthmax_featuresmin_impurity_decreasecriterion。 2. 使用网格搜索在随机森林上进行调参 import numpy as np import pandas as pd import sklearn import matplotlib as mlp import matplotlib.pyplot as plt import time #计时模块time from sklearn.ensemble import RandomForestRegressor as RFR from sklearn.model_selection import cross_validate, KFold, GridSearchCVdatapd.read_csv(F:\\Jupyter Files\\机器学习进阶\\集成学习\\datasets\\House Price\\train_encode.csv,encodingutf-8) data.drop(Unnamed: 0, axis1, inplaceTrue) xdata.iloc[:,:-1] ydata.iloc[:,-1] step1 建立benchmark reg RFR(random_state1412) cv KFold(n_splits5,shuffleTrue,random_state1412) result_pre_adjusted cross_validate(reg,x,y,cvcv,scoringneg_mean_squared_error,return_train_scoreTrue,verboseTrue) def RMSE(cvresult,key):return (abs(cvresult[key])**0.5).mean() RMSE(result_pre_adjusted,train_score) 11177.272008319653 RMSE(result_pre_adjusted,test_score) 30571.26665524217 step2创建参数空间 param_grid_simple {criterion: [squared_error,poisson], n_estimators: [*range(20,100,5)], max_depth: [*range(10,25,2)], max_features: [log2,sqrt,16,32,64,auto], min_impurity_decrease: [*np.arange(0,5,10)]} step3实例化用于搜索的评估器、交叉验证评估器与网格搜索评估器 reg RFR(random_state1412,verboseTrue) cv KFold(n_splits5,shuffleTrue,random_state1412) search GridSearchCV(estimatorreg,param_gridparam_grid_simple,scoring neg_mean_squared_error,verbose True,cv cv) step4训练网格搜索评估器 start time.time() search.fit(x,y) print(time.time() - start) ps这部分代码跑了将近一个小时但菜菜老师在实例化随机森林和网格搜索评估器的时候都加了参数n_jobs-1即调用全部线程花了7分钟左右的时间。而我实例化的时候加n_jobs这个参数会报错试了很多种方法都没法解决最终只能不写默认n_jobs1即只调用一个线程跑了将近一个小时。有没有小伙伴知道如何解决这个问题的欢迎来dd step5查看结果 search.best_estimator_ ad_reg RFR(n_estimators85, max_depth23, max_features16, random_state1412) cv KFold(n_splits5,shuffleTrue,random_state1412) result_post_adjusted cross_validate(ad_reg,x,y,cvcv,scoringneg_mean_squared_error,return_train_scoreTrue,verboseTrue) RMSE(result_post_adjusted,train_score) 11000.81099038192 RMSE(result_post_adjusted,test_score) 28572.070208366855 axis range(1,6) plt.figure(figsize(8,6),dpi80)plt.plot(xaxis,abs(result_pre_adjusted[train_score])**0.5,colorgreen,label RF_pre_ad_Train) plt.plot(xaxis,abs(result_pre_adjusted[test_score])**0.5,colorgreen,linestyle--,label RF_pre_ad_Test) plt.plot(xaxis,abs(result_post_adjusted[train_score])**0.5,colororange,label RF_post_ad_Train) plt.plot(xaxis,abs(result_post_adjusted[test_score])**0.5,colororange,linestyle--,label RF_post_ad_Test) plt.xticks([1,2,3,4,5]) plt.xlabel(CVcounts,fontsize16) plt.ylabel(RMSE,fontsize16) plt.legend() plt.show() 不难发现网格搜索之后的模型过拟合程度减轻且在训练集与测试集上的结果都有提高可以说从根本上提升了模型的基础能力。
http://www.sadfv.cn/news/209414/

相关文章:

  • 做外贸必须知道的网站软件工程师一个月工资多少
  • 云服务器可以做网站吗天津营销网站建设
  • 做网站什么语言网络营销公司做得比较好的
  • 一个人能建设一个公司网站吗wordpress 自动提交
  • 网站内容怎么做备份电子商务网站建设调研报告
  • SEO优化网站建设价格wordpress 汽车 模板
  • 织梦网站会员中心模板代理做网站怎么样
  • 网站cdn自己做win2008网站404
  • 户外网站模板中国排名第一的游戏
  • 小榄网站建设公司宁波网页设计职业
  • 网站建设需要什么哪家做网站最便宜
  • 智慧团建网站官网入口登录赣州网站建设服务
  • 重庆网站建设cqhtwl大学社团网站建设
  • 什么是网站开发时间进度表广州物流网站建设
  • 哪些网站是用wordpresscentos7系统做网站
  • 上海公司网站建设公司浙江网络推广
  • 中国建设银行黄陂支行网站露营旅游网站策划书
  • 利用免费网站做SEO石家庄58同城最新招聘信息
  • 通过域名访问网站苏州网站建设网络
  • 度假村网站模板站长工具箱
  • 国家建设环保局网站手机网站北京
  • wordpress编辑模板厦门优化网站排名
  • 北京网站建设正邦建筑网站主页
  • 天津河东做网站哪家好seo sem是什么意思
  • 用dw制作个介绍家乡网站餐饮网站建设的毕设报告
  • 汕头网站建设seo外包公司网站开发人员离职后修改公司网站
  • 用邮箱地址做网站域名好吗肇庆高端模板建站
  • 车床加工东莞网站建设诸城哪有做公司网站的
  • 亳州网站制作谷歌地图下载
  • 高密市赏旋网站设计有限公司深圳光明区最新消息