当前位置: 首页 > news >正文

随州市网站建设网站搭建素材群

随州市网站建设,网站搭建素材群,镇江网站关键字优化如何,wordpress文章添加表情来源#xff1a;arXiv编译#xff1a;机器之心在本综述论文中#xff0c;研究者解释了不同技术的工作原理、评估和比较#xff0c;还分析了一些实现这些技术的框架。现代深度学习和人工智能技术的发展涉及使用深度神经网络#xff08;DNN#xff09;来解决图像、视频、音… 来源arXiv编译机器之心在本综述论文中研究者解释了不同技术的工作原理、评估和比较还分析了一些实现这些技术的框架。现代深度学习和人工智能技术的发展涉及使用深度神经网络DNN来解决图像、视频、音频、自然语言处理、图像形式的内容生成等各种问题或生成给定格式主题的文本等任务。俄罗斯斯科尔科沃科学技术研究所、法国里尔大学、波尔多大学、Inria 等科研机构联合发表了一篇论文《Survey on Large Scale Neural Network Training》它试图解决的问题是若给定模型和计算平台的情形下如何训练才是最有效率的。为了使训练高效其必须可行最大程度地利用资源的计算能力在并行情况下它不能让信息传输成为瓶颈。训练的效率从根本上取决于计算内核在计算资源CPU、TPU、GPU上的有效实现以及 GPU 之间和不同内存之间通信的有效实现。论文链接https://arxiv.org/abs/2202.10435在这两种情况下人们为优化计算内核的算术强度及有效实现硬件网络上的通信做了很多工作。对于使用者来说已存在强大的分析工具来识别硬件瓶颈并可用于判定本调查中描述哪些策略可用于解决算术强度、内存和控制交换数据量的问题。该综述研究涵盖了应对这些限制的通用技术。如果由于模型、优化器状态和激活不适合内存而无法先验执行计算则可以使用内存交换计算重新实现或数据转移激活和权重卸载。我们还可以通过近似优化器状态和梯度压缩、修剪、量化来压缩内存使用。并行方法数据并行、模型并行、流水线模型并行也可以将内存需求分布到多个算力资源上。如果计算的算力强度不足以充分利用 GPU 和 TPU一般是因为 mini-batch 太小那么上述技术也可以增加 mini-batch 的大小。最后如果使用数据并行引起的通信开销昂贵到拖累计算速度则可以使用其他形式的并行模型并行、流水线模型并行梯度压缩也可以限制数据交换的数量。在本次调查中研究者解释了这些不同技术是如何工作的其中描述了评估和比较所提出方法的文献还分析了一些实施这些技术的框架。下表 1为文章讨论的不同技术及其对通信、内存和计算效率的影响。研究者根据目的区分了以下方法首先讨论减少 GPU 内存使用随后考虑对不适合 GPU 的模型使用并行训练最后讨论为训练存储在多个设备上的模型而开发的优化器的设计。单 GPU 情况下减少内存使用在前向传播期间神经网络存储执行反向传播所需的激活。在某些情况下这些激活会消耗大量内存让模型无法训练。减少内存使用的主要方法有两种重新实现也称为 checkpointing和卸载。激活的重新实现重新实现的策略仅在前向传播期间存储一小部分激活并在反向传播期间重新计算其余部分。重新实现方法可以通过它们处理的计算图来区分。第一组来自自动微分AD它们为同构顺序网络多层按顺序执行并具有相同计算和内存成本的 DNN找到最佳调度。第二组专注于过渡模型例如异构序列网络可以是由任意复杂模块组成的任何序列神经网络如 CNN、ResNet、一些 transformer它将解决方案从 AD 调整为异构设置。一些方法可以对一般计算图执行重新实现尽管确切的计算成本可能指数级上升如下表 2 所示。激活卸载卸载又被称为内存交换是一种通过在前向传递期间将激活转移到 CPU 内存并将它们预取回 GPU 内存以进行相应的向后计算来节省 GPU 内存的技术。由于 CPU 和 GPU 之间 PCI 总线的带宽有限必须优化选择传输激活以及何时传输的选择。在 vDNN [Rhu et al., 2016] 研究中作者通过仅卸载卷积层的输入来遵循对 CNN 有效的启发式方法然而它不能很好地推广到一般 DNN 上。另有研究 [Le et al., 2018] 考虑了激活生命周期来选择卸载的内容并使用图搜索方法来识别插入卸载 / 预取操作的时刻。AutoSwap [Zhang et al., 2019] 通过为每个变量分配优先级分数来决定卸载哪些激活。权重卸载前面提到的很多方法也适用于卸载权重这是因为卸载权重依赖于适用于任何张量的通用技术比如 TFLMS、AutoSwap 或者 SwapAdvisor。不适合单个 GPU 的模型的并行性在模型并行化中只需要传达激活信息并且传输只发生在分配给不同处理器的连续层之间。本章节提到的工作如下表 4 所示。如果多个小批量被 pipeline 化 则可以加快模型并行化中的执行速度从而同时激活了多个训练迭代具体可见 [Huang et al., 2019]。一旦在所有这些小批量上计算了前向和后向阶段权重就会更新。这种方法实现起来相当简单但也导致计算资源大部分处于空置状态。[Narayanan et al., 2019] 中提出的 PipeDream 方法仅强制前向和后向任务针对给定的小批量使用相同的模型权重改进了这一训练过程。减少执行更新的频率也已被证明有助于限制权重过期Narayanan et al., 2021a。[Yang et al., 2021] 提出的 PipeMare 根据 pipeline 阶段向后调整学习率和模型权重。对 pipeline 方法中激活导致的存储成本进行建模是一项艰巨的任务Beaumont et al., 2021b。例如[Fan et al., 2021] 中的 DAPPLE 、 [Li and Hoefler, 2021] 中的 Chimera 使用 1F1BOne-Forward-One-Backward调度来减少与激活相关的内存消耗。1F1B 是一种同步权重更新技术尽可能早地安排每个微批次的反向传递以释放激活占用的内存。有些论文专门处理具有挑战性的拓扑。比如为了解决高通信成本和异构网络能力的问题[Zhan and Zhang, 2019] 中的 Pipe-torch 提出了一种更新的动态规划策略该策略假设计算和通信之间没有重叠。[Park et al., 2020] 中的 Pipe 解决了异构 GPU 的其他问题采用的方法是将这些异构 GPU 分成虚拟 worker并在每个虚拟 worker 中运行 pipeline 并行化同时依赖 worker 之间的数据并行化。用于跨设备模型训练的优化器 零冗余优化器2020 年 Rajbhandari, S. 等人在论文《 ZeRO: Memory Optimizations toward Training Trillion Parameter Models》中提出了零冗余优化器Zero Redundancy Optimizer, ZeRO将它作为一种减少内存使用的数据并行化实现。根据在设备上划分的张量该算法具有三个阶段即阶段 1 - 优化器状态、阶段 2 - 优化器状态和梯度和阶段 3 - 优化器状态、梯度和模型超参数。2021 年 Ren, J. 等人在论文《 ZeRO-Offload: Democratizing Billion-Scale Model Training》中将 ZeRO 与 Zero-Offload 内部参数更新的 CPU 端计算统一起来其中梯度被迁移至存储参数副本的 CPU更新的权重迁移回 GPU。低精度优化器为了进一步减少内存使用低精度优化器low-precision optimizer有了用武之地。这些方法使用低精度格式拉力表示优化器状态以及状态的辅助向量。并且误差补偿技术可以被用来维持跟踪统计的近似准确率。2021 年 Dean, J. 等人在论文《Large Scale Distributed Deep Networks》中提出了一种将 Adam 优化器存储在 8-bit 的方法同时在使用 32-bit 格式时保持整体性能不变。2020 年 Sun, X. 等人在论文《Ultra-Low Precision 4-bit Training of Deep Neural Networks》中提出了更激进的精度降低其中开发了处理 4-bit 表示的特定路径。收敛加速另一种加速大规模深度学习模型的方法是减少节点之间的通信时间以及在适当局部最小值收敛所需的 epoch 数量。关于通信成本的降低。在将梯度在计算节点之间迁移之前对它们进行压缩已经出现了不同的方法具体有三类分别是分裂sparsification、量化quantization和低秩low-rank方法。分裂方法只迁移完整梯度元素的一些子集并在参数向量中更新相应的元素。这种近似方法能够显著降低通信成本同时保持训练模型的性能代表工作有 2017 年 Aji, A. F. 和 Heafield, K 的论文《 Sparse Communication for Distributed Gradient Descent 》和 2019 年 Alistarh, D. 等的论文《The Convergence of Sparsified Gradient Methods》。另一种方法是基于迁移梯度的量化该方法只迁移一定数量的 bit、从这些 bit 中重建整个梯度向量并更新参数向量的所有元素。这种方法对于一些神经网络架构和实验设置得到了不错的结果代表工作有 Alistarh, D. 等人 2017 年的论文《QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding》。最后一种降低通信成本的方法是低秩方法其中在更新参数向量之前构建、迁移和使用梯度的低秩近似来恢复完整格式的梯度。低秩近似可以通过块能量block power方法或者最小化策略来构建各自的代表工作分别是 Vogels et al., 2019 和Cho et al., 2019。大批量训练。另一种加速优化器收敛的方法是针对每个批使用大量的样本。这种训练设置可以减少每个 epoch 中的迭代次数并提升 GPU 的利用率。在 Goyal, P 等人 2017 年的论文《Accurate, Large Minibatch SGD》中研究者提出使用线性缩放规则来更新学习率和批大小。这一设置可以稳定优化过程并将模型的最终性能收敛至相同。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.yutouwan.com/news/455292/

相关文章:

  • 网站开发 盈利搜索引擎关键词推广
  • seo网站优化做什么wordpress修改数据库连接
  • 设计排版网站网站建设方面的外文
  • 关于文化建设网站松江新桥专业网站建设
  • 杭州企业网站建设标志设计图案
  • 公司网站制作税目js跳转到别的网站
  • 为什么建设营销型网站网站开发维护员挣钱吗
  • 制作旅游网站简单如何建立内外网网站
  • 做cpa广告建什么网站好浙江省龙泉市建设局网站
  • 域名注册网站建设网络实名女生学软件工程后悔了
  • 网站如何开通支付功能定制微信小程序多少钱
  • 分析不同网站的优缺点wordpress资讯cms主题
  • 怎样做自己的手机网站photoshop中文版免费下载
  • 个人可以做网站吗lamp wordpress 404
  • 昆明网站建设方案外包如何在godaddy空间做手机网站
  • 优秀的手机网站广东世纪达建设集团有限公司官方网站
  • 做网站的像素是多少网络营销策划书4000字
  • 通辽做家教的网站个人网站 免费空间
  • 怎么使用vs2017做网站建设网站如
  • 厦门网站外包带数据库的网页怎么制作
  • 遨翔网站建设徐州中小企业网站制作
  • 石家庄建站凡科网站建设公司注册
  • 做教育集团的网站建设国家信用信息企业公示网官网
  • 成都公司展厅设计公司外汇网站怎么做优化
  • 网站首页包括哪些内容网站建设一个购买链接
  • 空间查看网站什么网站可以赚钱啊
  • 长沙鞋网站建设有限公司怎样注册
  • 网站制作排版注意事项广州网站建设互广
  • 沧州建设银行招聘网站长沙官网优化多少钱
  • 企业铭做网站培训机构网站制作