当前位置: 首页 > news >正文

网站制作风格类型百度云域名没有备案怎么做网站

网站制作风格类型,百度云域名没有备案怎么做网站,南开做网站的公司,聊城网站建设 推广聊城博达目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差#xff08;残差#xff09;平方和 C ( ω , b ) … 目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差残差平方和 C ( ω , b ) ∑ i 1 n ( y i ^ − y i ) 2 C(\omega,b)\sum_{i1}^n(\hat{y_i}-y_i)^2 C(ω,b)i1∑n​(yi​^​−yi​)2 即 C ( ω , b ) ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)i1∑n​(ωxi​b−yi​)2 为方便计算常写为如下形式 C ( ω , b ) 1 2 n ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\frac{1}{2n}\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)2n1​i1∑n​(ωxi​b−yi​)2 其中 y i y_i yi​为真实值 y i ^ \hat{y_i} yi​^​为预测值。 若用一元线性方程拟合上面的数据集那么最佳的拟合直线方程需满足 C ( ω , b ) C(\omega,b) C(ω,b)最小即使得真实值到直线竖直距离的平方和最小。因此需要求解使得 C ( ω , b ) C(\omega,b) C(ω,b)最小的参数 ω \omega ω和 b b b即 min ⁡ ω , b C ( ω , b ) \min_{\omega,b}C(\omega,b) ω,bmin​C(ω,b) 梯度下降公式 ω : ω − α ∂ C ( ω , b ) ∂ ω ω − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 x i \omega:\omega-\alpha \frac{\partial C(\omega,b)}{\partial \omega}\omega-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2x_i ω:ω−α∂ω∂C(ω,b)​ω−αn1​i1∑n​(ωxi​b−yi​)2xi​ b : b − α ∂ C ( ω , b ) ∂ b b − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 b:b-\alpha \frac{\partial C(\omega,b)}{\partial b}b-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2 b:b−α∂b∂C(ω,b)​b−αn1​i1∑n​(ωxi​b−yi​)2 其中 α \alpha α为步长学习率 : : :表示赋值操作。 梯度下降基本步骤 初始化 ω \omega ω和 b b b常取0不断改变 ω \omega ω和 b b b直到 C ( ω , b ) C(\omega,b) C(ω,b)到达一个全局最小值或局部极小值。 下图使用梯度下降能到达局部最小值 下图使用梯度下降能到达全局最小值 下图中将 θ 1 \theta1 θ1看成 ω \omega ω J ( θ 1 ) J(\theta 1) J(θ1)看成 C ( ω , b ) C(\omega,b) C(ω,b)。则 在第一个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​小于0根据梯度下降公式此时 ω \omega ω的值会增大即往代价函数最小值的方向靠近。在第三个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​大于0根据梯度下降公式此时 ω \omega ω的值会减小即往代价函数最小值的方向靠近。 1.2 多元线性回归 定义多元线性方程 y ω 1 x 1 ω 2 x 2 . . . ω n x n b y\omega_1 x_1\omega_2 x_2...\omega_n x_nb yω1​x1​ω2​x2​...ωn​xn​b 误差平方和 C ( ω 1 , . . . , ω n , b ) 1 2 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 C(\omega_1,...,\omega_n,b)\frac{1}{2n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2 C(ω1​,...,ωn​,b)2n1​i1∑n​(y^​(xi)−yi)2 注 y ^ ( x i ) \hat{y}(x^i) y^​(xi)为预测值 y i y^i yi为真实值这里的 x i x^i xi表示的是第 i i i个数据包含多列属性。 由1.1可得 b : b − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 0 i b:b-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x_0^i b:b−αn1​i1∑n​(y^​(xi)−yi)2x0i​ 这里 x 0 i 1 x^i_01 x0i​1以实现格式统一。 ω 1 : ω 1 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 1 i \omega_1:\omega_1-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_1 ω1​:ω1​−αn1​i1∑n​(y^​(xi)−yi)2x1i​ ω 2 : ω 2 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 2 i \omega_2:\omega_2-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_2 ω2​:ω2​−αn1​i1∑n​(y^​(xi)−yi)2x2i​ . . . ... ... ω n : ω n − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x n i \omega_n:\omega_n-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_n ωn​:ωn​−αn1​i1∑n​(y^​(xi)−yi)2xni​ 改写为矢量版本 y ω T x y\omega ^Tx yωTx ω : ω − α 1 n X T ( y ^ ( x ) − y ) \omega:\omega-\alpha \frac{1}{n} X^T(\hat{y}(x)-y) ω:ω−αn1​XT(y^​(x)−y) 其中 ω \omega ω和 x x x某行数据均为列向量实际应用。 1.3 标准方程法 调用sklearn实现一元线性回归与多元线性回归的梯度下降时sklearn内部的实现并没有使用梯度下降法而是使用标准方程法。 公式推导利用最小二乘法12 上述公式推导使用到的矩阵求导公式 由推导的公式可知需要满足的条件是 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1存在。在机器学习中 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的原因通常有两种一种是自变量间存在高度多重共线性例如两个变量之间成正比例如x1 为房子的面积单位是平方英尺x2为房子的面积单位是平方米而1 平方英尺0.0929 平方米那么在计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时可能得不到结果或者结果无效另一种则是当特征变量过多样本数 m ≤ \le ≤特征数量 n的时候也会导致 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆。 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的情况很少发生如果有这种情况其解决问题的方法之一便是使用正则化以及岭回归等来求最小二乘法。 单变量情况下利用最小二乘法求解最佳参数 1.4 梯度下降法与标准方程法的优缺点 梯度下降法 优点 当特征值非常多的时候也可以很好的工作 缺点 需要选择合适的学习率需要迭代多个周期只能得到最优解的近似值 标准方程法 优点 不需要学习率不需要迭代可以得到全局最优解 缺点 需要计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时间复杂度大约是 O ( n 3 ) O(n^3) O(n3)n是特征数量 2. 相关系数与决定系数 常用相关系数来衡量两个变量间的相关性相关系数越大相关性越高使用直线拟合样本点时效果就越好。 公式如下两个变量的协方差除以标准差的乘积 r ( X , Y ) C o v ( X , Y ) V a r [ X ] V a r [ Y ] r(X,Y)\frac{Cov(X,Y)}{\sqrt{Var[X]Var[Y]}} r(X,Y)Var[X]Var[Y] ​Cov(X,Y)​ ∑ i 1 n ( X i − X ˉ ) ( Y i − Y ˉ ) ∑ i 1 n ( X i − X ˉ ) 2 ∑ i 1 n ( Y i − Y ˉ ) 2 \frac{\sum_{i1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\sum_{i1}^n(X_i-\bar{X})^2}\sqrt{\sum_{i1}^n(Y_i-\bar{Y})^2}} ∑i1n​(Xi​−Xˉ)2 ​∑i1n​(Yi​−Yˉ)2 ​∑i1n​(Xi​−Xˉ)(Yi​−Yˉ)​ 下图的样本点中左图的相关系数为0.993右图的相关系数为0.957即左图的样本点变量间的相关性更高。 相关系数用于描述两个变量之间的线性关系但决定系数 R 2 R^2 R2的适用范围更广可以用于描述非线性或者有两个及两个以上自变量的相关关系它可以用来评价模型的效果。 总平方和SST ∑ i 1 n ( y i − y ˉ ) 2 \sum_{i1}^{n}(y_i-\bar{y})^2 i1∑n​(yi​−yˉ​)2 回归平方和SSR ∑ i 1 n ( y ^ − y ˉ ) 2 \sum_{i1}^{n}(\hat{y}-\bar{y})^2 i1∑n​(y^​−yˉ​)2 残差平方和SSE ∑ i 1 n ( y i − y ^ ) 2 \sum_{i1}^{n}(y_i-\hat{y})^2 i1∑n​(yi​−y^​)2 三者的关系 S S T S S R S S E SSTSSRSSE SSTSSRSSE 决定系数 R 2 S S R S S T 1 − S S E S S T ∑ i 1 n ( y i − y ^ ) 2 ∑ i 1 n ( y i − y ˉ ) 2 R^2\frac{SSR}{SST}1-\frac{SSE}{SST}\frac{\sum_{i1}^{n}(y_i-\hat{y})^2}{\sum_{i1}^{n}(y_i-\bar{y})^2} R2SSTSSR​1−SSTSSE​∑i1n​(yi​−yˉ​)2∑i1n​(yi​−y^​)2​ R 2 R^2 R2的取值范围在0到1之间值为0表示模型无法解释因变量的变化值为1表示模型完全解释了因变量的变化。 覃秉丰——标准方程法 ↩︎ 白板推导——最小二乘法及其几何意义 ↩︎
http://www.sadfv.cn/news/377431/

相关文章:

  • 更换网站模板asp与sql网站建设
  • 做素材网站存储问题潍坊软件网站开发
  • cf小号自助购买网站好的摄影网站
  • 雄安优秀网站建设哪家好网站宣传推广文案
  • 南阳网站建设的公司免费个人网站怎么建立
  • 精美网站制作公司wordpress 发布慢
  • 惠州关键词排名提升广州seo推广营销
  • 专业信息网站建设方案天津关键词优化效果
  • 互联网网站定位app开发制作公司排行榜
  • 网站排名是什么意思wordpress注册按钮
  • 现在最常用网站开发工具朝阳网络 网站建设
  • 文登做网站苏州市城乡建设局网站首页
  • 网站后期维护合同html5的网站
  • 怎样设置个人网站扁平风格网站 模板
  • 用c语言可以做网站吗wordpress目录分类设置
  • 网站开发完要怎么部署做外贸需要用什么网站
  • 网站建设宣传词最好的扁平化网站
  • 建设网站是什么免费学生网页制作
  • 网站建设以及推广销售客户怎么找交互设计专业国内大学排名
  • dz网站建设教程wordpress ajax error
  • 网站多语言版本html5 网站开发工具
  • 做简单的网站多少钱做电脑图标的网站
  • 微信开发网站建设程序徐州专业做网站较好的公司
  • 自适用网站的建设常德市住房和城乡建设局网站
  • 成品网站源码1688自动跳转天津工程网站建设
  • 哪些设计网站可以赚钱企业融资的意义
  • 域名备案网站负责人我要网站建设
  • 电子商务网站的建站流程wordpress主题幻灯片
  • 商城网站 没有什么文章 怎样优化抚州北京网站建设
  • glitch做网站做影视网站不备案