网站的站点的管理系统,虎年ppt模板免费下载,抖音seo工具,wordpress转发分享插件文 | 王桂波知乎源 | 极市平台当前深度学习框架越来越成熟#xff0c;对于使用者而言封装程度越来越高#xff0c;好处就是现在可以非常快速地将这些框架作为工具使用#xff0c;用非常少的代码就可以构建模型进行实验#xff0c;坏处就是可能背后地实现都被隐藏起来了。在… 文 | 王桂波知乎源 | 极市平台当前深度学习框架越来越成熟对于使用者而言封装程度越来越高好处就是现在可以非常快速地将这些框架作为工具使用用非常少的代码就可以构建模型进行实验坏处就是可能背后地实现都被隐藏起来了。在这篇文章里笔者将设计和实现一个、轻量级的约 200 行、易于扩展的深度学习框架 tinynn基于 Python 和 Numpy 实现希望对大家了解深度学习的基本组件、框架的设计和实现有一定的帮助。本文首先会从深度学习的流程开始分析对神经网络中的关键组件抽象确定基本框架然后再对框架里各个组件进行代码实现最后基于这个框架实现了一个 MNIST 分类的示例并与 Tensorflow 做了简单的对比验证。目录组件抽象组件实现整体结构MNIST 例子总结附录参考组件抽象首先考虑神经网络运算的流程神经网络运算主要包含训练 training 和预测 predict 或 inference 两个阶段训练的基本流程是输入数据 - 网络层前向传播 - 计算损失 - 网络层反向传播梯度 - 更新参数预测的基本流程是 输入数据 - 网络层前向传播 - 输出结果。从运算的角度看主要可以分为三种类型的计算数据在网络层之间的流动前向传播和反向传播可以看做是张量 Tensor多维数组在网络层之间的流动前向传播流动的是输入输出反向传播流动的是梯度每个网络层会进行一定的运算然后将结果输入给下一层计算损失衔接前向和反向传播的中间过程定义了模型的输出与真实值之间的差异用来后续提供反向传播所需的信息参数更新使用计算得到的梯度对网络参数进行更新的一类计算基于这个三种类型我们可以对网络的基本组件做一个抽象tensor 张量这个是神经网络中数据的基本单位layer 网络层负责接收上一层的输入进行该层的运算将结果输出给下一层由于 tensor 的流动有前向和反向两个方向因此对于每种类型网络层我们都需要同时实现 forward 和 backward 两种运算loss 损失在给定模型预测值与真实值之后该组件输出损失值以及关于最后一层的梯度用于梯度回传optimizer 优化器负责使用梯度更新模型的参数然后我们还需要一些组件把上面这个 4 种基本组件整合到一起形成一个 pipelinenet 组件负责管理 tensor 在 layers 之间的前向和反向传播同时能提供获取参数、设置参数、获取梯度的接口model 组件负责整合所有组件形成整个 pipeline。即 net 组件进行前向传播 - losses 组件计算损失和梯度 - net 组件将梯度反向传播 - optimizer 组件将梯度更新到参数。基本的框架图如下图组件实现按照上面的抽象我们可以写出整个流程代码如下。# define model
net Net([layer1, layer2, ...])
model Model(net, loss_fn, optimizer)# training
pred model.forward(train_X)
loss, grads model.backward(pred, train_Y)
model.apply_grad(grads)# inference
test_pred model.forward(test_X)首先定义 netnet 的输入是多个网络层然后将 net、loss、optimizer 一起传给 model。model 实现了 forward、backward 和 apply_grad 三个接口分别对应前向传播、反向传播和参数更新三个功能。接下来我们看这里边各个部分分别如何实现。tensortensor 张量是神经网络中基本的数据单位我们这里直接使用 numpy.ndarray 类作为 tensor 类的实现numpy.ndarray https://numpy.org/doc/stable/reference/generated/numpy.ndarray.htmllayer上面流程代码中 model 进行 forward 和 backward其实底层都是网络层在进行实际运算因此网络层需要有提供 forward 和 backward 接口进行对应的运算。同时还应该将该层的参数和梯度记录下来。先实现一个基类如下# layer.py
class Layer(object):def __init__(self, name):self.name nameself.params, self.grads None, Nonedef forward(self, inputs):raise NotImplementedErrordef backward(self, grad):raise NotImplementedError最基础的一种网络层是全连接网络层实现如下。forward 方法接收上层的输入 inputs实现 的运算backward 的方法接收来自上层的梯度计算关于参数 和输入的梯度然后返回关于输入的梯度。这三个梯度的推导可以见附录这里直接给出实现。w_init 和 b_init 分别是参数 和 的初始化器这个我们在另外的一个实现初始化器中文件 initializer.py 去实现这部分不是核心部件所以在这里不展开介绍。# layer.py
class Dense(Layer):def __init__(self, num_in, num_out,w_initXavierUniformInit(),b_initZerosInit()):super().__init__(Linear)self.params {w: w_init([num_in, num_out]),b: b_init([1, num_out])}self.inputs Nonedef forward(self, inputs):self.inputs inputsreturn inputs self.params[w] self.params[b]def backward(self, grad):self.grads[w] self.inputs.T gradself.grads[b] np.sum(grad, axis0)return grad self.params[w].T同时神经网络中的另一个重要的部分是激活函数。激活函数可以看做是一种网络层同样需要实现 forward 和 backward 方法。我们通过继承 Layer 类实现激活函数类这里实现了最常用的 ReLU 激活函数。func 和 derivation_func 方法分别实现对应激活函数的正向计算和梯度计算。# layer.py
class Activation(Layer):Base activation layerdef __init__(self, name):super().__init__(name)self.inputs Nonedef forward(self, inputs):self.inputs inputsreturn self.func(inputs)def backward(self, grad):return self.derivative_func(self.inputs) * graddef func(self, x):raise NotImplementedErrordef derivative_func(self, x):raise NotImplementedErrorclass ReLU(Activation):ReLU activation functiondef __init__(self):super().__init__(ReLU)def func(self, x):return np.maximum(x, 0.0)def derivative_func(self, x):return x 0.0net上文提到 net 类负责管理 tensor 在 layers 之间的前向和反向传播。forward 方法很简单按顺序遍历所有层每层计算的输出作为下一层的输入backward 则逆序遍历所有层将每层的梯度作为下一层的输入。这里我们还将每个网络层参数的梯度保存下来返回后面参数更新需要用到。另外 net 类还实现了获取参数、设置参数、获取梯度的接口也是后面参数更新时需要用到# net.py
class Net(object):def __init__(self, layers):self.layers layersdef forward(self, inputs):for layer in self.layers:inputs layer.forward(inputs)return inputsdef backward(self, grad):all_grads []for layer in reversed(self.layers):grad layer.backward(grad)all_grads.append(layer.grads)return all_grads[::-1]def get_params_and_grads(self):for layer in self.layers:yield layer.params, layer.gradsdef get_parameters(self):return [layer.params for layer in self.layers]def set_parameters(self, params):for i, layer in enumerate(self.layers):for key in layer.params.keys():layer.params[key] params[i][key]losses上文我们提到 losses 组件需要做两件事情给定了预测值和真实值需要计算损失值和关于预测值的梯度。我们分别实现为 loss 和 grad 两个方法这里我们实现多分类回归常用的 SoftmaxCrossEntropyLoss 损失。这个的损失 loss 和梯度 grad 的计算公式推导进文末附录这里直接给出结果多分类 softmax 交叉熵的损失为梯度稍微复杂一点目标类别和非目标类别的计算公式不同。对于目标类别维度其梯度为对应维度模型输出概率减一对于非目标类别维度其梯度为对应维度输出概率本身。402 Payment Required代码实现如下# loss.py
class BaseLoss(object):def loss(self, predicted, actual):raise NotImplementedErrordef grad(self, predicted, actual):raise NotImplementedErrorclass CrossEntropyLoss(BaseLoss):def loss(self, predicted, actual):m predicted.shape[0]exps np.exp(predicted - np.max(predicted, axis1, keepdimsTrue))p exps / np.sum(exps, axis1, keepdimsTrue)nll -np.log(np.sum(p * actual, axis1))return np.sum(nll) / mdef grad(self, predicted, actual):m predicted.shape[0]grad np.copy(predicted)grad - actualreturn grad / moptimizeroptimizer 主要实现一个接口 compute_step这个方法根据当前的梯度计算返回实际优化时每个参数改变的步长。我们在这里实现常用的 Adam 优化器。# optimizer.py
class BaseOptimizer(object):def __init__(self, lr, weight_decay):self.lr lrself.weight_decay weight_decaydef compute_step(self, grads, params):step list()# flatten all gradientsflatten_grads np.concatenate([np.ravel(v) for grad in grads for v in grad.values()])# compute stepflatten_step self._compute_step(flatten_grads)# reshape gradientsp 0for param in params:layer dict()for k, v in param.items():block np.prod(v.shape)_step flatten_step[p:pblock].reshape(v.shape)_step - self.weight_decay * vlayer[k] _stepp blockstep.append(layer)return stepdef _compute_step(self, grad):raise NotImplementedErrorclass Adam(BaseOptimizer):def __init__(self, lr0.001, beta10.9, beta20.999,eps1e-8, weight_decay0.0):super().__init__(lr, weight_decay)self._b1, self._b2 beta1, beta2self._eps epsself._t 0self._m, self._v 0, 0def _compute_step(self, grad):self._t 1self._m self._b1 * self._m (1 - self._b1) * gradself._v self._b2 * self._v (1 - self._b2) * (grad ** 2)# bias correction_m self._m / (1 - self._b1 ** self._t)_v self._v / (1 - self._b2 ** self._t)return -self.lr * _m / (_v ** 0.5 self._eps)model最后 model 类实现了我们一开始设计的三个接口 forward、backward 和 apply_grad forward 直接调用 net 的 forward backward 中把 net 、loss、optimizer 串起来先计算损失 loss然后反向传播得到梯度然后 optimizer 计算步长最后由 apply_grad 对参数进行更新# model.py
class Model(object):def __init__(self, net, loss, optimizer):self.net netself.loss lossself.optimizer optimizerdef forward(self, inputs):return self.net.forward(inputs)def backward(self, preds, targets):loss self.loss.loss(preds, targets)grad self.loss.grad(preds, targets)grads self.net.backward(grad)params self.net.get_parameters()step self.optimizer.compute_step(grads, params)return loss, stepdef apply_grad(self, grads):for grad, (param, _) in zip(grads, self.net.get_params_and_grads()):for k, v in param.items():param[k] grad[k]整体结构最后我们实现出来核心代码部分文件结构如下tinynn
├── core
│ ├── initializer.py
│ ├── layer.py
│ ├── loss.py
│ ├── model.py
│ ├── net.py
│ └── optimizer.py其中 initializer.py 这个模块上面没有展开讲主要实现了常见的参数初始化方法零初始化、Xavier 初始化、He 初始化等用于给网络层初始化参数。MNIST 例子框架基本搭起来后我们找一个例子来用 tinynn 这个框架 run 起来。这个例子的基本一些配置如下数据集MNISThttp://yann.lecun.com/exdb/mnist/任务类型多分类网络结构三层全连接 INPUT(784) - FC(400) - FC(100) - OUTPUT(10)这个网络接收 的输入其中 是每次输入的样本数784 是每张 的图像展平后的向量输出维度为 其中 是样本数10 是对应图片在 10 个类别上的概率激活函数ReLU损失函数SoftmaxCrossEntropyoptimizerAdam(lr1e-3)batch_size128Num_epochs20这里我们忽略数据载入、预处理等一些准备代码只把核心的网络结构定义和训练的代码贴出来如下# example/mnist/run.py
net Net([Dense(784, 400),ReLU(),Dense(400, 100),ReLU(),Dense(100, 10)
])
model Model(netnet, lossSoftmaxCrossEntropyLoss(), optimizerAdam(lrargs.lr))iterator BatchIterator(batch_sizeargs.batch_size)
evaluator AccEvaluator()
for epoch in range(num_ep):for batch in iterator(train_x, train_y):# trainingpred model.forward(batch.inputs)loss, grads model.backward(pred, batch.targets)model.apply_grad(grads)# evaluate every epochtest_pred model.forward(test_x)test_pred_idx np.argmax(test_pred, axis1)test_y_idx np.asarray(test_y)res evaluator.evaluate(test_pred_idx, test_y_idx)print(res)运行结果如下# tinynn
Epoch 0 {total_num: 10000, hit_num: 9658, accuracy: 0.9658}
Epoch 1 {total_num: 10000, hit_num: 9740, accuracy: 0.974}
Epoch 2 {total_num: 10000, hit_num: 9783, accuracy: 0.9783}
Epoch 3 {total_num: 10000, hit_num: 9799, accuracy: 0.9799}
Epoch 4 {total_num: 10000, hit_num: 9805, accuracy: 0.9805}
Epoch 5 {total_num: 10000, hit_num: 9826, accuracy: 0.9826}
Epoch 6 {total_num: 10000, hit_num: 9823, accuracy: 0.9823}
Epoch 7 {total_num: 10000, hit_num: 9819, accuracy: 0.9819}
Epoch 8 {total_num: 10000, hit_num: 9820, accuracy: 0.982}
Epoch 9 {total_num: 10000, hit_num: 9838, accuracy: 0.9838}
Epoch 10 {total_num: 10000, hit_num: 9825, accuracy: 0.9825}
Epoch 11 {total_num: 10000, hit_num: 9810, accuracy: 0.981}
Epoch 12 {total_num: 10000, hit_num: 9845, accuracy: 0.9845}
Epoch 13 {total_num: 10000, hit_num: 9845, accuracy: 0.9845}
Epoch 14 {total_num: 10000, hit_num: 9835, accuracy: 0.9835}
Epoch 15 {total_num: 10000, hit_num: 9817, accuracy: 0.9817}
Epoch 16 {total_num: 10000, hit_num: 9815, accuracy: 0.9815}
Epoch 17 {total_num: 10000, hit_num: 9835, accuracy: 0.9835}
Epoch 18 {total_num: 10000, hit_num: 9826, accuracy: 0.9826}
Epoch 19 {total_num: 10000, hit_num: 9819, accuracy: 0.9819}可以看到测试集 accuracy 随着训练进行在慢慢提升这说明数据在框架中确实按照正确的方式进行流动和计算参数得到正确的更新。为了对比下效果我用 Tensorflow 1.13 实现了相同的网络结构、采用相同的采数初始化方法、优化器配置等等得到的结果如下# Tensorflow 1.13.1
Epoch 0 {total_num: 10000, hit_num: 9591, accuracy: 0.9591}
Epoch 1 {total_num: 10000, hit_num: 9734, accuracy: 0.9734}
Epoch 2 {total_num: 10000, hit_num: 9706, accuracy: 0.9706}
Epoch 3 {total_num: 10000, hit_num: 9756, accuracy: 0.9756}
Epoch 4 {total_num: 10000, hit_num: 9722, accuracy: 0.9722}
Epoch 5 {total_num: 10000, hit_num: 9772, accuracy: 0.9772}
Epoch 6 {total_num: 10000, hit_num: 9774, accuracy: 0.9774}
Epoch 7 {total_num: 10000, hit_num: 9789, accuracy: 0.9789}
Epoch 8 {total_num: 10000, hit_num: 9766, accuracy: 0.9766}
Epoch 9 {total_num: 10000, hit_num: 9763, accuracy: 0.9763}
Epoch 10 {total_num: 10000, hit_num: 9791, accuracy: 0.9791}
Epoch 11 {total_num: 10000, hit_num: 9773, accuracy: 0.9773}
Epoch 12 {total_num: 10000, hit_num: 9804, accuracy: 0.9804}
Epoch 13 {total_num: 10000, hit_num: 9782, accuracy: 0.9782}
Epoch 14 {total_num: 10000, hit_num: 9800, accuracy: 0.98}
Epoch 15 {total_num: 10000, hit_num: 9837, accuracy: 0.9837}
Epoch 16 {total_num: 10000, hit_num: 9811, accuracy: 0.9811}
Epoch 17 {total_num: 10000, hit_num: 9793, accuracy: 0.9793}
Epoch 18 {total_num: 10000, hit_num: 9818, accuracy: 0.9818}
Epoch 19 {total_num: 10000, hit_num: 9811, accuracy: 0.9811}可以看到两者效果上大差不差测试集准确率都收敛到 0.982 左右就单次的实验看比 Tensorflow 稍微好一点点。总结tinynn 相关的源代码在这个 repohttps://github.com/borgwang/tinynn 里。目前支持layer 全连接层、2D 卷积层、 2D反卷积层、MaxPooling 层、Dropout 层、BatchNormalization 层、RNN 层以及 ReLU、Sigmoid、Tanh、LeakyReLU、SoftPlus 等激活函数lossSigmoidCrossEntropy、SoftmaxCrossEntroy、MSE、MAE、HuberoptimizerRAam、Adam、SGD、RMSProp、Momentum 等优化器并且增加了动态调节学习率 LRScheduler实现了 mnist分类、nn_paint回归、DQN强化学习、AutoEncoder 和 DCGAN 无监督等常见模型。见 tinynn/exampleshttps://github.com/borgwang/tinynn/tree/master/examplestinynn 还有很多可以继续完善的地方受限于时间还没有完成笔者在空闲时间会进行维护和更新。当然 tinynn 只是一个「玩具」版本的深度学习框架一个成熟的深度学习框架至少还需要支持自动求导、高运算效率静态语言加速、支持 GPU 加速、提供丰富的算法实现、提供易用的接口和详细的文档等等。这个小项目的出发点更多地是学习在设计和实现 tinynn 的过程中笔者个人学习确实到了很多东西包括如何抽象、如何设计组件接口、如何更效率的实现、算法的具体细节等等。对笔者而言写这个小框架除了了解深度学习框架的设计与实现之外还有一个好处后续可以在这个框架上快速地实现一些新的算法新的参数初始化方法新的优化算法新的网络结构设计都可以快速地在这个小框架上进行实验。如果你对自己设计实现一个深度学习框架也感兴趣希望看完这篇文章会对你有所帮助也欢迎大家提 PR 一起贡献代码~附录: Softmax 交叉熵损失和梯度推导多分类下交叉熵损失如下式其中 分别是真实值和模型预测值 是样本数 是类别个数。由于真实值一般为一个 one-hot 向量除了真实类别维度为 1 其他均为 0因此上式可以化简为402 Payment Required其中 是代表真实类别 代表第 个样本 类的预测概率。即我们需要计算的是每个样本在真实类别上的预测概率的对数的和然后再取负就是交叉熵损失。接下来推导如何求解该损失关于模型输出的梯度用 表示模型输出在多分类中通常最后会使用 Softmax 将网络的输出归一化为一个概率分布则 Softmax 后的输出为代入上面的损失函数求解 关于输出向量 的梯度可以将 分为目标类别所在维度 和非目标类别维度 。首先看目标类别所在维度 再看非目标类别所在维度402 Payment Required可以看到对于目标类别维度其梯度为对应维度模型输出概率减一对于非目标类别维度其梯度为对应维度输出概率真身。参考Deep Learning, Goodfellow, et al. (2016)Joel Grus - Livecoding Madness - Lets Build a Deep Learning LibraryTensorFlow DocumentationPyTorch Documentation后台回复关键词【入群】加入卖萌屋NLP、CV与搜推广与求职讨论群