当前位置: 首页 > news >正文

seo网站推广主要目的不包括学校营销型网站

seo网站推广主要目的不包括,学校营销型网站,湖南公司注册网上核名,推荐自助建网站平台Python 实现梯度下降算法 最近重新回顾了一下机器学习的基础知识#xff0c;关于梯度下降的知识#xff0c;个人认为看懂原理和公式#xff0c;仅仅是一方面#xff0c;如果能从代码的角度重新实现或者走一遍可能会更加记忆深刻#xff0c;下面两个参考链接讲的就非常好关于梯度下降的知识个人认为看懂原理和公式仅仅是一方面如果能从代码的角度重新实现或者走一遍可能会更加记忆深刻下面两个参考链接讲的就非常好大家一块来学习呀。 相关参考 [1] 深入浅出–梯度下降法及其实现 [2] python写出梯度下降的代码 Python实现版本 [1] import numpy as npm 20 # Size of the points dataset.X0 np.ones((m, 1)) # Points x-coordinate and dummy value (x0, x1). X1 np.arange(1, m 1).reshape(m, 1) X np.hstack((X0, X1))y np.array([ # Points y-coordinate3, 4, 5, 5, 2, 4, 7, 8, 11, 8, 12,11, 13, 13, 16, 17, 18, 17, 19, 21 ]).reshape(m, 1)alpha 0.01 # The Learning Rate alpha.def error_function(theta, X, y):Error function J definition.diff np.dot(X, theta) - yreturn (1. / 2 * m) * np.dot(np.transpose(diff), diff)def gradient_function(theta, X, y):Gradient of the function J definition.diff np.dot(X, theta) - yreturn (1. / m) * np.dot(np.transpose(X), diff)def gradient_descent(X, y, alpha):Perform gradient descent.theta np.array([1, 1]).reshape(2, 1)gradient gradient_function(theta, X, y)while not np.all(np.absolute(gradient) 1e-5):theta theta - alpha * gradientgradient gradient_function(theta, X, y)return thetaoptimal gradient_descent(X, y, alpha) error error_function(optimal, X, y)[0, 0] print(optimal:, optimal) print(error function:, error)Python实现版本 [2] import numpy as npiterations 1000 # 定义迭代次数和学习率 alpha 0.1 # 学习率 m 100 # 数据长度def compute_error(X, y, theta): # 定义损失函数predictions np.dot(X, theta)sqrErrors (predictions - y) ** 2J 1 / (2 * m) * np.sum(sqrErrors)return Jdef compute_gradient(theta, X, y): # 梯度更新predictions np.dot(X, theta)errors predictions - ytheta theta - alpha / m * np.dot(X.T, errors)return thetadef gradient_descent(X, y, theta, num_iters): # 梯度下降算法J_history np.zeros((num_iters, 1)) # 记录损失函数for i in range(num_iters):theta compute_gradient(theta, X, y)J_history[i] compute_error(X, y, theta)return theta, J_history# 测试代码 x 2 * np.random.rand(m, 1) # 随机生成一些数据 y 100 3 * x np.random.randn(m, 1) X_b np.c_[np.ones((m, 1)), x] # 在数据中添加x01 theta np.random.randn(2, 1) # 初始化theta theta, J_history gradient_descent(X_b, y, theta, iterations) # 运行梯度下降算法 print(最终参数值, theta) # 输出最终结果 print(损失函数值, J_history[-1])声明 总结学习有问题或不当之处可以批评指正哦谢谢。
http://www.sadfv.cn/news/93152/

相关文章:

  • 中英文切换网站怎么做企业所得税怎么算举例
  • 网站模板织梦茂名网站建设优化
  • 欣赏网站外贸网站的推广技巧有哪些
  • 营销型网站网站电商商城平台定制
  • 自己做的网站如何让百度收录单机网页制作工具
  • 无极网站招聘信息济南的网站建设公司
  • 大型房产网站模板网页设计作业欣赏
  • 在哪个网站开发外贸业务sap.net网站开发
  • 直缝钢管网站建设定南网站建设
  • 摇钱树手机论坛网站vs2017网站开发组件
  • 龙之向导外贸网站怎么样京东网上商城会员注册步骤
  • 网站开发的课程做网站能用ai好还是ps
  • 做网站哪家公司比较好网站建设与客户价格谈判技巧
  • 网站首页优化公司苏州公司建站
  • 网站建设教学后记网站建设与管理课程实训
  • 怎么做网站横幅wordpress防护插件
  • 深圳哪里网站制作东莞专业微网站建设价格低
  • 青岛做英文网站的公司网站可信认证在哪里做
  • 有全部公司的网站单页网站利润
  • 平面设计 网站推荐如何检测网站被搜索引擎惩罚了
  • 静态网站做301重定向曼联vs曼联直播
  • 网站邮箱怎么做的外贸网站优化哪家好
  • 网站怎么做效果更好深圳建设局网和住房网
  • 网站建设业务员提成做网站 接单
  • 建站语言有哪些温州seo优化网络推广
  • com的域名是指商业网站的域名.农林牧渔行业网站建设
  • 网站备案号在哪网站建设改版方案
  • 专业杭州网站建设网页设计基础课心得体会2000字
  • 做视频网站注意什么问题无锡seo培训
  • 门户网站开发模板直播小程序源码