当前位置: 首页 > news >正文

网站制作风格类型百度云域名没有备案怎么做网站

网站制作风格类型,百度云域名没有备案怎么做网站,南开做网站的公司,聊城网站建设 推广聊城博达目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差#xff08;残差#xff09;平方和 C ( ω , b ) … 目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差残差平方和 C ( ω , b ) ∑ i 1 n ( y i ^ − y i ) 2 C(\omega,b)\sum_{i1}^n(\hat{y_i}-y_i)^2 C(ω,b)i1∑n​(yi​^​−yi​)2 即 C ( ω , b ) ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)i1∑n​(ωxi​b−yi​)2 为方便计算常写为如下形式 C ( ω , b ) 1 2 n ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\frac{1}{2n}\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)2n1​i1∑n​(ωxi​b−yi​)2 其中 y i y_i yi​为真实值 y i ^ \hat{y_i} yi​^​为预测值。 若用一元线性方程拟合上面的数据集那么最佳的拟合直线方程需满足 C ( ω , b ) C(\omega,b) C(ω,b)最小即使得真实值到直线竖直距离的平方和最小。因此需要求解使得 C ( ω , b ) C(\omega,b) C(ω,b)最小的参数 ω \omega ω和 b b b即 min ⁡ ω , b C ( ω , b ) \min_{\omega,b}C(\omega,b) ω,bmin​C(ω,b) 梯度下降公式 ω : ω − α ∂ C ( ω , b ) ∂ ω ω − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 x i \omega:\omega-\alpha \frac{\partial C(\omega,b)}{\partial \omega}\omega-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2x_i ω:ω−α∂ω∂C(ω,b)​ω−αn1​i1∑n​(ωxi​b−yi​)2xi​ b : b − α ∂ C ( ω , b ) ∂ b b − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 b:b-\alpha \frac{\partial C(\omega,b)}{\partial b}b-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2 b:b−α∂b∂C(ω,b)​b−αn1​i1∑n​(ωxi​b−yi​)2 其中 α \alpha α为步长学习率 : : :表示赋值操作。 梯度下降基本步骤 初始化 ω \omega ω和 b b b常取0不断改变 ω \omega ω和 b b b直到 C ( ω , b ) C(\omega,b) C(ω,b)到达一个全局最小值或局部极小值。 下图使用梯度下降能到达局部最小值 下图使用梯度下降能到达全局最小值 下图中将 θ 1 \theta1 θ1看成 ω \omega ω J ( θ 1 ) J(\theta 1) J(θ1)看成 C ( ω , b ) C(\omega,b) C(ω,b)。则 在第一个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​小于0根据梯度下降公式此时 ω \omega ω的值会增大即往代价函数最小值的方向靠近。在第三个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​大于0根据梯度下降公式此时 ω \omega ω的值会减小即往代价函数最小值的方向靠近。 1.2 多元线性回归 定义多元线性方程 y ω 1 x 1 ω 2 x 2 . . . ω n x n b y\omega_1 x_1\omega_2 x_2...\omega_n x_nb yω1​x1​ω2​x2​...ωn​xn​b 误差平方和 C ( ω 1 , . . . , ω n , b ) 1 2 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 C(\omega_1,...,\omega_n,b)\frac{1}{2n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2 C(ω1​,...,ωn​,b)2n1​i1∑n​(y^​(xi)−yi)2 注 y ^ ( x i ) \hat{y}(x^i) y^​(xi)为预测值 y i y^i yi为真实值这里的 x i x^i xi表示的是第 i i i个数据包含多列属性。 由1.1可得 b : b − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 0 i b:b-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x_0^i b:b−αn1​i1∑n​(y^​(xi)−yi)2x0i​ 这里 x 0 i 1 x^i_01 x0i​1以实现格式统一。 ω 1 : ω 1 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 1 i \omega_1:\omega_1-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_1 ω1​:ω1​−αn1​i1∑n​(y^​(xi)−yi)2x1i​ ω 2 : ω 2 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 2 i \omega_2:\omega_2-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_2 ω2​:ω2​−αn1​i1∑n​(y^​(xi)−yi)2x2i​ . . . ... ... ω n : ω n − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x n i \omega_n:\omega_n-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_n ωn​:ωn​−αn1​i1∑n​(y^​(xi)−yi)2xni​ 改写为矢量版本 y ω T x y\omega ^Tx yωTx ω : ω − α 1 n X T ( y ^ ( x ) − y ) \omega:\omega-\alpha \frac{1}{n} X^T(\hat{y}(x)-y) ω:ω−αn1​XT(y^​(x)−y) 其中 ω \omega ω和 x x x某行数据均为列向量实际应用。 1.3 标准方程法 调用sklearn实现一元线性回归与多元线性回归的梯度下降时sklearn内部的实现并没有使用梯度下降法而是使用标准方程法。 公式推导利用最小二乘法12 上述公式推导使用到的矩阵求导公式 由推导的公式可知需要满足的条件是 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1存在。在机器学习中 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的原因通常有两种一种是自变量间存在高度多重共线性例如两个变量之间成正比例如x1 为房子的面积单位是平方英尺x2为房子的面积单位是平方米而1 平方英尺0.0929 平方米那么在计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时可能得不到结果或者结果无效另一种则是当特征变量过多样本数 m ≤ \le ≤特征数量 n的时候也会导致 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆。 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的情况很少发生如果有这种情况其解决问题的方法之一便是使用正则化以及岭回归等来求最小二乘法。 单变量情况下利用最小二乘法求解最佳参数 1.4 梯度下降法与标准方程法的优缺点 梯度下降法 优点 当特征值非常多的时候也可以很好的工作 缺点 需要选择合适的学习率需要迭代多个周期只能得到最优解的近似值 标准方程法 优点 不需要学习率不需要迭代可以得到全局最优解 缺点 需要计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时间复杂度大约是 O ( n 3 ) O(n^3) O(n3)n是特征数量 2. 相关系数与决定系数 常用相关系数来衡量两个变量间的相关性相关系数越大相关性越高使用直线拟合样本点时效果就越好。 公式如下两个变量的协方差除以标准差的乘积 r ( X , Y ) C o v ( X , Y ) V a r [ X ] V a r [ Y ] r(X,Y)\frac{Cov(X,Y)}{\sqrt{Var[X]Var[Y]}} r(X,Y)Var[X]Var[Y] ​Cov(X,Y)​ ∑ i 1 n ( X i − X ˉ ) ( Y i − Y ˉ ) ∑ i 1 n ( X i − X ˉ ) 2 ∑ i 1 n ( Y i − Y ˉ ) 2 \frac{\sum_{i1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\sum_{i1}^n(X_i-\bar{X})^2}\sqrt{\sum_{i1}^n(Y_i-\bar{Y})^2}} ∑i1n​(Xi​−Xˉ)2 ​∑i1n​(Yi​−Yˉ)2 ​∑i1n​(Xi​−Xˉ)(Yi​−Yˉ)​ 下图的样本点中左图的相关系数为0.993右图的相关系数为0.957即左图的样本点变量间的相关性更高。 相关系数用于描述两个变量之间的线性关系但决定系数 R 2 R^2 R2的适用范围更广可以用于描述非线性或者有两个及两个以上自变量的相关关系它可以用来评价模型的效果。 总平方和SST ∑ i 1 n ( y i − y ˉ ) 2 \sum_{i1}^{n}(y_i-\bar{y})^2 i1∑n​(yi​−yˉ​)2 回归平方和SSR ∑ i 1 n ( y ^ − y ˉ ) 2 \sum_{i1}^{n}(\hat{y}-\bar{y})^2 i1∑n​(y^​−yˉ​)2 残差平方和SSE ∑ i 1 n ( y i − y ^ ) 2 \sum_{i1}^{n}(y_i-\hat{y})^2 i1∑n​(yi​−y^​)2 三者的关系 S S T S S R S S E SSTSSRSSE SSTSSRSSE 决定系数 R 2 S S R S S T 1 − S S E S S T ∑ i 1 n ( y i − y ^ ) 2 ∑ i 1 n ( y i − y ˉ ) 2 R^2\frac{SSR}{SST}1-\frac{SSE}{SST}\frac{\sum_{i1}^{n}(y_i-\hat{y})^2}{\sum_{i1}^{n}(y_i-\bar{y})^2} R2SSTSSR​1−SSTSSE​∑i1n​(yi​−yˉ​)2∑i1n​(yi​−y^​)2​ R 2 R^2 R2的取值范围在0到1之间值为0表示模型无法解释因变量的变化值为1表示模型完全解释了因变量的变化。 覃秉丰——标准方程法 ↩︎ 白板推导——最小二乘法及其几何意义 ↩︎
http://www.yutouwan.com/news/377431/

相关文章:

  • 网站建设技术部职责动漫制作专业学什么就业方向
  • 德州万企互联网站制作上海企业网络推广公司
  • 如何远程登录网站服务器专业模板网站制作
  • 建立的网站打开空白中装建设市值
  • 太原网站定制东莞企业画册设计制作公司报价
  • 网络营销产品策略seo排名优化什么意思
  • 网站制作图书搜索视频 网站开发
  • 网站制作职责软件平台公司
  • 郑州网站建设案例html做网站的代码
  • 母婴网站建设wordpress停用谷歌字体
  • 广东网站备案审核时间iis 访问网站需要进行身份验证
  • 临沂做商城网站广州做餐饮的招聘网站
  • 大理网站制作公司无锡网站制作有哪些
  • 加强网站政务服务建设方案政和网站建设wzjseo
  • 学校资源网站 建设厦门市建设局局长
  • 高端用户群浏览网站google地图 wordpress
  • 手机网站架构360提示的危险网站
  • 什么是网站静态化抚顺市 网站建设
  • wordpress 编辑首页wordpress 界面优化
  • 一级域名网站多少钱专业建设网站公司排名
  • 纯静态做企业网站东莞怎么制作网站
  • 做网站路径网站建设找祥赢
  • 天津人工智能建站系统软件公司邮箱申请注册
  • 成都网站建设seo什么是分类信息网站营销
  • 容桂网站建设wordpress 代替cms
  • 网站用的字体网站怎么创建论坛
  • 苏州专业网站建设公司自建网站百度
  • 怎么看网站的外链wordpress高亮代码转义
  • 虚拟主机怎么建网站网页制作专业服务
  • 郑州做网站zzmshl广州微网站建设dmz100