中国做的好的房产网站,公司网上注册流程,秦皇岛找一家能建网站的公司,天津网络网站公司吴恩达Coursera机器学习课程系列笔记讲解课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础干货|机器学习零基础#xff1f;不要怕#xff0c;吴恩达机器学习课程笔记2-多元线性回归干货|机器学习零基础#xff1f;不要怕#xff0c;吴恩达课程笔记第三周#xff… 吴恩达Coursera机器学习课程系列笔记讲解课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础干货|机器学习零基础不要怕吴恩达机器学习课程笔记2-多元线性回归干货|机器学习零基础不要怕吴恩达课程笔记第三周逻辑回归与正则Neural Networks: Representation1 Motivation之前讲的Linear regression和Logistric regression都是线性分类器(linear classification)因为它们都只能用一条线来分类。然而很多情况下我们的分界线不见得是一条简单的曲线可能就是一条弯来弯去的曲线所以我们需要一个非线性分类器来划分这个数据集。我们可以使用如下的式子去假设这个非线性模型:但是如果特征很多很多比如说一幅图像我们用每一个像素去表示一个特征的话这个计算量将是无比巨大的所以更普及的一个方法是使用神经网络(Neural Networks)。神经网络顾名思义就是模仿了人类大脑的构造了一层一层的进行计算最后得出一个结果。每一层对上一层的数据进行一个抽象得出一系列的决策然后下一层在对这一层得出的决策再进行一个抽象的到更高层次的决策就这样一层一层下去直到最后一层的出一个终极决策输出结果。我们的大脑中使用“神经元(neuron)”去感知去连接其他的神经。类比一下在神经网络中也是如此我们在每一层中弄几个神经元来感知(计算)然后讲决策传个下一层的神经元……以此类推直至最后一个输出层的神经元。2 Model Representation首先看一下一个神经元是怎么工作的然后再来看由多个这样的神经元组成的简单的三层神经网络是怎么样工作的下面我们把这一系列的计算公式展开来然后再合并成colume vector相乘的格式最后再合并成matrix相乘的形式。sigmoid函数用σ(z)来表示。以上便是一个三层的神经网络的工作流程再复杂的也是这样一层一层计算的。这里最容易弄混淆的就是转换成矩阵的这一步了。有一个比较好的检验矩阵表示是否正确的方法就是去check一下矩阵相乘之后的维度如果相乘的时候维度对不上尝试转置一下。另外在这门课程中我们的向量都是column vector即竖的向量矩阵都是row represented matrix即以一行为数据。3 Multiclass Classification上一周的课程中已经讲过如何使用“one-to-rest/all”的方法来进行多分类问题了就是k个二分类器把属于这一类的分别挑出来。这样的话需要分别训练k个二分类器。接下来我们使用神经网络进行多分类只要训练一个分类器即可。说是一个分类器其实是k个分类器的集合器我们把k个分类器分别放在了隐藏层的k个神经元中。然后这k个神经元自然会输出k个结果将这些结果使用softmax函数转换成概率然后取概率最大的那一个类别即可。细节图如下其中的softmax函数是为了让这几个分类器的结果具有可比性而引入了一个函数它将把这些结果转换成“同一分布”的概率即这k个概率总和为1。下面式子中的z是一个K维向量比如接下来我们需要通过神经网络去识别一幅图像。我们将图像中的每一个像素作为一个特征输入到如上的多分类神经网络中去并且告诉神经网络这幅图是什么然后让它自己去比较预测结果和正确结果使用back propagation的方法去纠正错误学习像素与类别之间关系。如此一来输入一幅全新的图像后这个神经网络就可以知道类别什么了。和上面的细节图一样W用来表示隐藏层的3个神经元即3个二分类器cat分类器、dog分类器、ship分类器最后3个分类器输出三个类的概率cat score、dog score、ship score结果dog的概率最大但是正确的类别是cat所以需要神经网络去比较预测结果和正确结果然后使用back propagation的方法去纠正错误下一次将会讲到如何比较结果如何纠正错误。