当前位置: 首页 > news >正文

网页和网站做哪个好用个人网站备案怎么样才能简单的过

网页和网站做哪个好用,个人网站备案怎么样才能简单的过,工商营业执照网上查询官网,苏州企业网站优化机器学习入门系列#xff08;2#xff09;–如何构建一个完整的机器学习项目#xff0c;第九篇#xff01; 该系列的前八篇文章#xff1a; 机器学习入门系列(2)–如何构建一个完整的机器学习项目(一)机器学习数据集的获取和测试集的构建方法特征工程之数据预处理#…机器学习入门系列2–如何构建一个完整的机器学习项目第九篇 该系列的前八篇文章 机器学习入门系列(2)–如何构建一个完整的机器学习项目(一)机器学习数据集的获取和测试集的构建方法特征工程之数据预处理上特征工程之数据预处理下特征工程之特征缩放特征编码特征工程(完)常用机器学习算法汇总比较(上常用机器学习算法汇总比较(中 常用机器学习算法汇总比较的最后一篇介绍提升(Boosting)算法、GBDT、优化算法和卷积神经网络的基本原理、优缺点。 9. 提升(Boosting)方法 简述 提升方法(boosting)是一种常用的统计学习方法在分类问题中它通过改变训练样本的权重学习多个分类器并将这些分类器进行线性组合提供分类的性能。 boosting 和 bagging boosting 和 bagging 都是集成学习ensemble learning领域的基本算法两者使用的多个分类器的类型是一致的。 Bagging bagging也叫自助汇聚法bootstrap aggregating比如原数据集中有 N 个样本我们每次从原数据集中有放回的抽取抽取 N 次就得到了一个新的有 N 个样本的数据集然后我们抽取 S 个 N 次就得到了 S 个有 N 个样本的新数据集然后拿这 S 个数据集去训练 S 个分类器之后应用这 S 个分类器进行分类选择分类器投票最多的类别作为最后的分类结果。一般来说自助样本的包含有 63% 的原始训练数据因为 假设共抽取 N 个样本则 N 次都没有抽到的概率是 p(1−1N)Np(1-\frac{1}{N})^Np(1−N1​)N 则一个样本被抽到的概率有 p1−(1−1N)Np 1- (1- \frac{1}{N})^Np1−(1−N1​)N 所以当 N 很大时有p1−1e0.632p 1- \frac{1}{e} 0.632p1−e1​0.632。 这样在一次 bootstrap 的过程中会有 36% 的样本没有被采样到它们被称为 out-off-bag(oob)这是自助采样带给 bagging 的里一个优点因为我们可以用 oob 进行**“包外估计”(out-of-bag estimate)**。 bagging 通过降低基分类器的方差改善了泛化误差bagging 的性能依赖于基分类器的稳定性。如果基分类器是不稳定的bagging 有助于减少训练数据的随机波动导致的误差如果基分类器是稳定的即对训练数据集中的微小变化是鲁棒的则组合分类器的误差主要由基分类器偏移所引起的这种情况下bagging 可能不会对基分类器有明显的改进效果甚至可能降低分类器的性能。 boosting 与 bagging 的区别 bagging 通过有放回的抽取得到了 S 个数据集而 boosting 用的始终是原数据集但是样本的权重会发生改变。boosting 对分类器的训练是串行的每个新分类器的训练都会受到上一个分类器分类结果的影响。bagging 里面各个分类器的权重是相等的但是 boosting 不是每个分类器的权重代表的是其对应分类器在上一轮分类中的成功度。 AdaBoost 是 boosting 方法中最流行的版本 AdaBoost 算法 AdaBoostadaptive boosting是元算法通过组合多个弱分类器来构建一个强分类器。 我们为训练数据中的每一个样本都赋予其一个权重这些权重构成了向量 D一开始这些权重都初始化成相等值然后每次添加一个弱分类器对样本进行分类从第二次分类开始将上一次分错的样本的权重提高分对的样本权重降低持续迭代。 此外对于每个弱分类器而言每个分类器也有自己的权重取决于它分类的加权错误率加权错误率越低则这个分类器的权重值 α 越高最后综合多个弱分类器的分类结果和其对应的权重 α 得到预测结果AdaBoost 是最好的监督学习分类方法之一。 优缺点 优点 泛化误差低容易实现分类准确率较高没有太多参数可以调 缺点 对异常值比较敏感训练时间过长执行效果依赖于弱分类器的选择 10. GBDT 简述 GBDT 是一个基于迭代累加的决策树算法它通过构造一组弱的学习器树并把多颗决策树的结果累加起来作为最终的预测输出。 GBDT中的树是回归树不是分类树。 随机森林(Random ForestRF) 与 GBDT 对比 RF 中树的棵树是并行生成的GBDT 中树是顺序生成的两者中过多的树都会过拟合但是 GBDT 更容易过拟合RF 中每棵树分裂的特征比较随机GBDT 中前面的树优先分裂对大部分样本区分的特征后面的树分裂对小部分样本区分特征RF 中主要参数是树的棵数GBDT 中主要参数是树的深度一般为1 优缺点 优点 精度高能处理非线性数据能处理多特征类型适合低维稠密数据模型可解释性好不需要做特征的归一化可以自动选择特征能适应多种损失函数包括均方误差和LogLoss等 缺点 boosting 是个串行的过程所以并行麻烦需要考虑上下树之间的联系计算复杂度大不使用高维稀疏特征 调参 树的个数 100~10000叶子的深度 3~8学习速率 0.01~1叶子上最大节点树 20训练采样比例 0.5~1训练特征采样比例 (n)\sqrt(n)(​n) xgboost xgboost 是 boosting Tree 的一个很牛的实现它在 Kaggle 比赛中大放异彩。它有以下几个优良的特性 显示的把树模型复杂度作为正则项加到优化目标中。公式推导中用到了二阶导数用了二阶泰勒展开。实现了分裂点寻找近似算法。利用了特征的稀疏性。数据事先排序并且以 block 形式存储有利于并行计算。基于分布式通信框架 rabit可以运行在 MPI 和 yarn 上。最新已经不基于 rabit 了实现做了面向体系结构的优化针对 cache 和内存做了性能优化。 在项目实测中使用发现Xgboost 的训练速度要远远快于传统的 GBDT 实现10 倍量级。 代码实现 下面给出简单使用xgboost这个框架的例子。 # 划分数据集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.01, random_state1729) print(X_train.shape, X_test.shape)#模型参数设置 xlf xgb.XGBRegressor(max_depth10, learning_rate0.1, n_estimators10, silentTrue, objectivereg:linear, nthread-1, gamma0,min_child_weight1, max_delta_step0, subsample0.85, colsample_bytree0.7, colsample_bylevel1, reg_alpha0, reg_lambda1, scale_pos_weight1, seed1440, missingNone)xlf.fit(X_train, y_train, eval_metricrmse, verbose True, eval_set [(X_test, y_test)],early_stopping_rounds100)# 计算 auc 分数、预测 preds xlf.predict(X_test)11. 优化算法 常见的最优化方法有梯度下降法、牛顿法和拟牛顿法、共轭梯度法等等 梯度下降法 梯度下降法是最早最简单也是最为常用的最优化方法。 梯度下降法实现简单当目标函数是凸函数时梯度下降法的解是全局解。 一般情况下其解不保证是全局最优解梯度下降法的速度也未必是最快的。 梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向因为该方向为当前位置的最快下降方向所以也被称为是”最速下降法“。最速下降法越接近目标值步长越小前进越慢。 梯度下降法的搜索迭代示意图如下图所示 其缺点是 1靠近极小值时收敛速度减慢如下图所示 2直线搜索时可能会产生一些问题 3可能会“之字形”地下降。 从上图可以看出梯度下降法在接近最优解的区域收敛速度明显变慢利用梯度下降法求解需要很多次的迭代。 在机器学习中基于基本的梯度下降法发展了三种梯度下降方法 批量梯度下降法每次迭代都会采用整个训练集随机梯度下降法每次迭代随机使用一个训练样本小批量梯度下降法每次迭代采用一个小型的训练子集 其中小批量梯度下降法是前两种方法的一个折中也是目前最常用的梯度下降法它即避免了批量梯度下降法需要计算整个训练集的缺点也不会像随机梯度下降法一样会出现训练震荡不稳定的缺点。当然它相比前两种方法的缺点就是比较容易陷入局部最小值中。 牛顿法 牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数 f(x) 的泰勒级数的前面几项来寻找方程 f(x) 0 的根。 它是二阶算法它使用了 Hessian 矩阵求权重的二阶偏导数目标是采用损失函数的二阶偏导数寻找更好的训练方向。 牛顿法最大的特点就在于它的收敛速度很快。 牛顿法是基于当前位置的切线来确定下一次的位置所以牛顿法又被很形象地称为是切线法。牛顿法的搜索路径二维情况如下图所示 牛顿法搜索动态示例图 关于牛顿法和梯度下降法的效率对比 从本质上去看牛顿法是二阶收敛梯度下降是一阶收敛所以牛顿法就更快。如果更通俗地说的话比如你想找一条最短的路径走到一个盆地的最底部梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步牛顿法在选择方向时不仅会考虑坡度是否够大还会考虑你走了一步之后坡度是否会变得更大。所以可以说牛顿法比梯度下降法看得更远一点能更快地走到最底部。牛顿法目光更加长远所以少走弯路相对而言梯度下降法只考虑了局部的最优没有全局思想。根据 wiki上的解释从几何上说牛顿法就是用一个二次曲面去拟合当前所处位置的局部曲面而梯度下降法是用一个平面去拟合当前的局部曲面通常情况下二次曲面的拟合会比平面更好所以牛顿法选择的下降路径会更符合真实的最优下降路径。 注红色的牛顿法的迭代路径绿色的是梯度下降法的迭代路径。 优缺点 优点 二阶收敛收敛速度快 缺点 Hessian 矩阵海森矩阵的逆计算量较大当问题规模较大时不仅计算量大而且需要的存储空间也多因此牛顿法在面对海量数据时由于每一步迭代的开销巨大而变得不适用牛顿法在每次迭代时不能总是保证海森矩阵是正定的一旦海森矩阵不是正定的优化方向就会“跑偏”从而使得牛顿法失效也说明了牛顿法的鲁棒性较差。 拟牛顿法 拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的 Hessian 矩阵的逆矩阵的缺陷它使用正定矩阵来近似 Hessian 矩阵的逆从而简化了运算的复杂度。 拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法尤其对于困难的问题。 另外因为拟牛顿法不需要二阶导数的信息而是在每次迭代的时候计算一个矩阵其逼近海塞矩阵的逆。最重要的是该逼近值只是使用损失函数的一阶偏导来计算所以有时比牛顿法更为有效。 如今优化软件中包含了大量的拟牛顿算法用来解决无约束约束和大规模的优化问题。 共轭梯度法(Conjugate Gradient) 共轭梯度法是介于最速下降法与牛顿法之间的一个方法**它仅需利用一阶导数信息但克服了最速下降法收敛慢的缺点又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点**共轭梯度法不仅是解决大型线性方程组最有用的方法之一也是解大型非线性最优化最有效的算法之一。在各种优化算法中共轭梯度法是非常重要的一种。其优点是所需存储量小具有收敛快稳定性高而且不需要任何外来参数。 在共轭梯度训练算法中因为是沿着共轭方向conjugate directions执行搜索的所以通常该算法要比沿着梯度下降方向优化收敛得更迅速。共轭梯度法的训练方向是与海塞矩阵共轭的。 共轭梯度法已经证实其在神经网络中要比梯度下降法有效得多。并且由于共轭梯度法并没有要求使用海塞矩阵所以在大规模神经网络中其还是可以做到很好的性能。 启发式优化方法 启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选择已经行之有效的方法而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。 还有一种特殊的优化算法被称之多目标优化算法它主要针对同时优化多个目标两个及两个以上的优化问题这方面比较经典的算法有 NSGAII 算法、MOEA/D 算法以及人工免疫算法等。 解决约束优化问题–拉格朗日乘数法 这个方法可以参考文章 拉格朗日乘数法 Levenberg-Marquardt 算法 Levenberg-Marquardt 算法也称之为衰减最小二乘法damped least-squares method该算法的损失函数采用平方误差和的形式。该算法的执行也不需要计算具体的海塞矩阵它仅仅只是使用梯度向量和雅可比矩阵Jacobian matrix。 Levenberg-Marquardt 算法是为平方误差和函数所定制的。这就让使用这种误差度量的神经网络训练地十分迅速。然而 Levenberg-Marquardt 算法还有一些缺点 不能用于平方根误差或交叉熵误差cross entropy error等函数该算法还和正则项不兼容。最后对于大型数据集或神经网络雅可比矩阵会变得十分巨大因此也需要大量的内存。所以我们在大型数据集或神经网络中并不推荐采用 Levenberg-Marquardt 算法。 内存与收敛速度的比较 下图展示了所有上文所讨论的算法及其收敛速度和内存需求。其中收敛速度最慢的是梯度下降算法但该算法同时也只要求最少的内存。相反Levenberg-Marquardt 算法可能是收敛速度最快的但其同时也要求最多的内存。比较折衷方法是拟牛顿法。 总而言之 如果我们的神经网络有数万参数为了节约内存我们可以使用梯度下降或共轭梯度法。如果我们需要训练多个神经网络并且每个神经网络都只有数百参数、数千样本那么我们可以考虑 Levenberg-Marquardt 算法。而其余的情况拟牛顿法都能很好地应对。 12. 卷积神经网络(CNN) CNN 可以应用在场景分类图像分类现在还可以应用到自然语言处理(NLP)方面的很多问题比如句子分类等。 LeNet 是最早的CNN结构之一它是由大神 Yann LeCun 所创造的主要是用在字符分类问题。 卷积神经网络主要包含四种不同的网络层分别是卷积层非线性层(也就是使用了ReLU函数)Pooling层全连接层下面将一一介绍这几种网络层。 12.1 卷积层 卷积简介 CNN的名字由来就是因为其使用了卷积运算的缘故。卷积的目的主要是为了提取图片的特征。卷积运算可以保持像素之间的空间关系。 每张图片可以当做是一个包含每个像素值的矩阵像素值的范围是 0~255,0 表示黑色255 是白色。下面是一个 5 × 5 大小的矩阵例子它的值是 0 或者 1。 接下来是另一个 3 × 3 矩阵 上述两个矩阵通过卷积可以得到如下图右侧粉色的矩阵结果。 黄色的矩阵在绿色的矩阵上从左到右从上到下每次滑动的步进值是1个像素所以得到一个 3 × 3 的矩阵。 在CNN中黄色的矩阵被叫做滤波器(filter)或者核(kernel)或者是特征提取器而通过卷积得到的矩阵则是称为“特征图(Feature Map)”或者“Activation Map”。 另外使用不同的滤波器矩阵是可以得到不同的 Feature Map 例子如下图所示 上图通过滤波器矩阵实现了不同的操作比如边缘检测锐化以及模糊操作等。 在实际应用中CNN 是可以在其训练过程中学习到这些滤波器的值不过我们需要首先指定好滤波器的大小数量以及网络的结构。使用越多的滤波器可以提取到更多的图像特征网络也就能够有更好的性能。 Feature Map 的尺寸是由以下三个参数来决定的 深度(Depth) 深度等于滤波器的数量。步进(Stride): 步进值是在使用滤波器在输入矩阵上滑动的时候每次滑动的距离。步进值越大得到的 Feature Map 的尺寸越小。Zero-padding: 有时候可以在输入矩阵的边界填补 0这样就可以将滤波器应用到边缘的像素点上一个好的 Zero-padding 是能让我们可以控制好特征图的尺寸的。使用该方法的卷积称为 wide convolution没有使用的则是 narrow convolution。 卷积公式和参数量 卷积是大自然中最常见的运算一切信号观测、采集、传输和处理都可以用卷积过程实现其用公式表达如下 KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ Y(m,n) X(m,… 上述公式中 H(m,n)H(m,n)H(m,n) 表示卷积核。 在 CNN 中的卷积层的计算步骤与上述公式定义的二维卷积有点差异首先是维度升至三维、四维卷积跟二维卷积相比多了一个**“通道”(channel)**每个通道还是按照二维卷积方式计算而多个通道与多个卷积核分别进行二维卷积得到多通道输出需要“合并”为一个通道其次是卷积核在卷积计算时没有“翻转”而是与输入图片做滑动窗口“相关”计算。用公式重新表达如下 Yl(m,n)Xk(m,n)∗Hkl(m,n)∑k0K−1∑i0I−1∑j0J−1Xk(mi,nj)Hkl(i,j)Y^l(m,n) X^k(m,n)*H^{kl}(m,n) \sum_{k0}^{K-1}\sum_{i0}^{I-1}\sum_{j0}^{J-1}X^k(mi,nj)H^{kl}(i,j) Yl(m,n)Xk(m,n)∗Hkl(m,n)k0∑K−1​i0∑I−1​j0∑J−1​Xk(mi,nj)Hkl(i,j) 这里假定卷积层有 L 个输出通道和 K 个输入通道于是需要有 K×L 个卷积核实现通道数目的转换。其中 X^k 表示第 k 个输入通道的二维特征图Y^l 表示第 l 个输出通道的二维特征图H^{kl} 表示第 k 行、第 l 列二维卷积核。 假定卷积核大小是 I×J,每个输出通道的特征图大小是 M×N则该层每个样本做一次前向传播时卷积层的计算量是 Calculations(MAC)I×J×M×N×K×L。 卷积层的学习参数也就是卷积核数目乘以卷积核的尺寸–ParamsI×J×K×LParams I×J×K×LParamsI×J×K×L。 这里定义计算量-参数量之比是CPRCalculations/ParamsM×NCalculations/ParamsM×NCalculations/ParamsM×N。 因此可以得出结论卷积层的输出特征图尺寸越大CPR 越大参数重复利用率越高。若输入一批大小为 B 的样本则 CPR 值可提高 B 倍。 优点 卷积神经网络通过**『参数减少』与『权值共享』**大大减少了连接的个数即需要训练的参数的个数。 假设我们的图像是 1000×1000 的则有 10^6 个隐层神经元那么它们全连接的话也就是每个隐层神经元都连接图像的每个像素点就有 10^12 个连接也即 10^12 个权值参数需要训练这显然是不值得的。 但是对于一个只识别特定特征的卷积核需要大到覆盖整个图像的所有像素点吗 通常是不需要的一个特定特征尤其是第一层需要提取的特征通常都相当基础只占图像很小的一部分。所以我们设置一个较小的局部感受区域比如10*10也即每个神经元只需要和这10*10的局部图像相连接所以 10^6 个神经元也就有 10^8 个连接。这就叫参数减少。 那什么叫权值共享呢 在上面的局部连接中10^6 个神经元每个神经元都对应 100 个参数所以是 10^8 个参数那如果每个神经元所对应的参数都是相同的那需要训练的参数就只有 100 个。 这后面隐含的道理在于这 100 个参数就是一个卷积核而卷积核是提取特征的方式与其在图像上的位置无关图像一个局部的统计特征与其他局部的统计特征是一样的我们用在这个局部抽取特征的卷积核也可以用在图像上的其它任何地方。 而且这 100 个参数只是一种卷积核只能提取一种特征我们完全可以采用 100 个卷积核提取 100 种特征而所需要训练的参数也不过 10^4最开始我们训练 10^12 个参数还只能提取一种特征。选取 100 个卷积核我们就能得到 100 张特征图每张特征图可以看做是一张图像的不同通道。 CNN 主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。 由于 CNN 特征检测层通过训练数据进行学习在使用 CNN 时避免了显式的特征抽取而隐式地从训练数据中进行学习 再者由于同一个特征图上的神经元权值相同所以网络可以并行学习这也是卷积网络相对于神经元彼此相连网络的一大优势。 卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性其布局更接近于实际的生物神经网络权值共享降低了网络的复杂性避免了特征提取和分类过程中数据重建的复杂度。 12.2 非线性层(ReLU) 非线性修正函数**ReLU(Rectified Linear Unit)**如下图所示 这是一个对每个像素点实现点乘运算并用 0 来替换负值像素点。 其目的是在 CNN 中加入非线性因为使用 CNN 来解决的现实世界的问题都是非线性的而卷积运算是线性运算所以必须使用一个如ReLU的非线性函数来加入非线性的性质。 其他非线性函数还包括 tanh 和 Sigmoid,但是 ReLU 函数已经被证明在大部分情况下性能最好。 12.3 Pooling层 **空间合并Spatial Pooling)**也可以叫做子采样或者下采样可以在保持最重要的信息的同时降低特征图的维度。它有不同的类型如最大化平均求和等等。 对于Max Pooling操作首先定义一个空间上的邻居比如一个 2×2 的窗口对该窗口内的经过 ReLU 的特征图提取最大的元素。除了提取最大的元素还可以使用窗口内元素的平均值或者是求和的值。 不过Max Pooling 的性能是最好的。例子可以如下图所示 上图中使用的步进值是 2。 根据相关理论特征提取的误差主要来自两个方面 邻域大小受限造成的估计值方差增大卷积层参数误差造成估计均值的偏移。 一般来说mean-pooling 能减小第一种误差更多的保留图像的背景信息max-pooling 能减小第二种误差更多的保留纹理信息。 使用Pooling的原因有如下几点 不变性更关注是否存在某些特征而不是特征具体的位置。可以看作加了一个很强的先验让学到的特征要能容忍一些的变化。减小下一层输入大小减小计算量和参数个数。获得定长输出。文本分类的时候输入是不定长的可以通过池化获得定长输出防止过拟合或有可能会带来欠拟合 12.4 全连接层 全连接层就是一个传统的多层感知器它在输出层使用一个 softmax 激活函数。 其主要作用就是将前面卷积层提取到的特征结合在一起然后进行分类。 Softmax 函数可以将输入是一个任意实数分数的向量变成一个值的范围是 0~1 的向量但所有值的总和是 1。 在 CNN 出现之前最早的深度学习网络计算类型都是全连接形式的。 比较卷积层和全连接层卷积层在输出特征图维度实现了权值共享这是降低参数量的重要举措同时卷积层局部连接特性相比全连接也大幅减少了参数量。 因此卷积层参数量占比小但计算量占比大而全连接层是参数量占比大计算量占比小。所以在进行计算加速优化时重点放在卷积层在进行参数优化、权值剪裁时重点放在全连接层。 12.5 反向传播(Backpropagation) CNN的整个训练过程如下所示 首先是随机初始化所有滤波器以及其他参数和权重值输入图片进行前向传播也就是经过卷积层ReLU 和 pooling 运算最后到达全连接层进行分类得到一个分类的结果也就是输出一个包含每个类预测的概率值的向量计算误差也就是代价函数这里代价函数可以有多种计算方法比较常用的有平方和函数;使用反向传播来计算网络中对应各个权重的误差的梯度一般是使用梯度下降法来更新各个滤波器的权重值目的是为了让输出的误差也就是代价函数的值尽可能小。重复上述第二到第四步直到训练次数达到设定好的值。 小结 常用的机器学习算法就简单介绍到这里下一篇会介绍模型的评估方法。 参考 《统计学习方法》Ensemble learning:Bagging,Random Forest,Boosting机器学习四— 从gbdt到xgboostxgboost入门与实战原理篇机器学习算法中GBDT和XGBOOST的区别有哪些常见的几种最优化方法An Intuitive Explanation of Convolutional Neural Networks对CNN中pooling的理解《深度学习轻松学核心算法与视觉实践》ResNet解析 欢迎关注我的微信公众号–机器学习与计算机视觉或者扫描下方的二维码大家一起交流学习和进步 往期精彩推荐 机器学习系列 机器学习入门系列1–机器学习概览机器学习入门系列(2)–如何构建一个完整的机器学习项目(一)机器学习数据集的获取和测试集的构建方法特征工程之数据预处理上特征工程之数据预处理下特征工程之特征缩放特征编码特征工程(完)常用机器学习算法汇总比较(上常用机器学习算法汇总比较(中 Github项目 资源教程推荐 [Github 项目推荐] 一个更好阅读和查找论文的网站[资源分享] TensorFlow 官方中文版教程来了必读的AI和深度学习博客[教程]一份简单易懂的 TensorFlow 教程[资源]推荐一些Python书籍和教程入门和进阶的都有[Github项目推荐] 机器学习 Python 知识点速查表
http://www.sadfv.cn/news/182981/

相关文章:

  • 自己做网站开网店个人做网站能备案吗
  • 网站建设意识形态北京科技网站建设
  • 电子商务网站建设与维护的考试建设网络道德教育网站的有效措施有
  • 糖果网站建设策划书公司装修工程
  • 东阳市建设规划局网站誉铭摄影网站
  • 淮安网站排名优化公司长沙做网站最好的公司
  • 网站模板 响应式wordpress联系表单
  • 长安网站定制wordpress 代码演示
  • 免费购物网站系统wordpress检索蜘蛛插件
  • 广州网站建设海珠信科好看的网站首页设计
  • 专业做甜点的网站网站开发费用是研发费用
  • 怎么样提升网站权重高中网站建设课程
  • 深圳做网站需要多少钱百度网页版主页网址
  • 新站网站建设如何利用seo赚钱
  • 做网站需要懂什么技术播放我的观看历史记录
  • 中国企业500强厉害吗刘连康seo培训哪家强
  • 网站开发好了 怎么发布学校免费网站建设
  • 淘宝客网站是怎么做的做淘宝链接的网站
  • 做网站运营话术网站建设属于哪种职位
  • 网站开发技术合同四平市建设局网站
  • 网站搭建系统北京软件开发学校哪个好
  • 企业网站建设方案费用预算品牌设计包括哪些设计
  • 网站优化可以自己做么个人微信crm系统
  • 建设网站用什么技术龙岗网站建设公司官网
  • 在阿里云做网站教程养殖推广网站怎么做
  • 网站做最优是什么意思广州景点
  • 网站开发推荐英文字体wordpress登录注册代码
  • 建设快三网站网页设计培训的课程类型
  • 培训门户网站源码龙岗住房和建设局网站
  • php学院网站源码做网站的格言