云南集优科技网站,无锡品牌学会网站建设,xamp wordpress,宽带业务如何推广简介#xff1a; 2021 年 6 月 23 日#xff0c;云原生计算基金会#xff08;CNCF#xff09;宣布通过全球 TOC 投票接纳 KubeDL 成为 CNCF Sandbox 项目。KubeDL 是阿里开源的基于 Kubernetes 的 AI 工作负载管理框架#xff0c;取自Kubernetes-Deep-Learning 2021 年 6 月 23 日云原生计算基金会CNCF宣布通过全球 TOC 投票接纳 KubeDL 成为 CNCF Sandbox 项目。KubeDL 是阿里开源的基于 Kubernetes 的 AI 工作负载管理框架取自Kubernetes-Deep-Learning的缩写希望能够依托阿里巴巴的场景将大规模机器学习作业调度与管理的经验反哺社区。
作者 | KubeDL
2021 年 6 月 23 日云原生计算基金会CNCF宣布通过全球 TOC 投票接纳 KubeDL 成为 CNCF Sandbox 项目。KubeDL 是阿里开源的基于 Kubernetes 的 AI 工作负载管理框架取自Kubernetes-Deep-Learning的缩写希望能够依托阿里巴巴的场景将大规模机器学习作业调度与管理的经验反哺社区。
项目地址http://kubedl.io
项目介绍
随着 TensorFlow, PyTorchXGBoost 等主流 AI 框架的不断成熟和以 GPU/TPU 为代表的多种AI异构计算芯片的井喷式涌现人工智能正快速进入“大规模工业化”落地的阶段。从算法工程师着手设计第一层神经网络结构到最终上线服务于真实的应用场景除 AI 算法的研发外还需要大量基础架构层面的系统支持包括数据收集和清理、分布式训练引擎、资源调度与编排、模型管理推理服务调优可观测等。如以下经典图例所展示众多系统组件的协同组成了完整的机器学习流水线。 与此同时以 Kubernetes 为代表的云原生技术蓬勃发展通过优秀的抽象和强大的可扩展性将应用层与 IaaSInfrastructure as a Service层的基础设施完美解耦应用能够以“云”的范式按需使用资源无需关注底层基础设施的复杂性从而解放生产力并专注于自身领域的创新。
Kubernetes 的出现解决了云资源如何高效交付的问题但对于 AI 这类本身具备高度复杂性的工作负载还无法做到很好地原生支持如何整合各类框架的差异并保留其通用性同时围绕 AI 工作负载的运行时去建设一系列完善的周边生态及工具业界还在不断探索与尝试。在实践中我们发现了 AI 负载运行在 Kubernetes 生态中面临着如下挑战
机器学习框架百花齐放各自有不同的优化方向和适用场景但在分布式训练作业的生命周期管理上又存在着诸多共性同时针对一些高级特性也有相同的诉求如网络模式镜像代码分离元数据持久化缓存加速等。为每类框架的负载单独实现 operater各自独立进程无法共享 state缺乏全局视角使得全局 Job 层面的调度以及队列机制难以实现。此外不利于功能的抽象和复用在代码层面存在重复劳动。原生 Kubernetes 无法满足离线任务多样的调度需求。Kubernetes 面向 Pod 调度的模型天然适用于微服务等 Long Running 的工作负载但针对离线任务的高吞吐Gang Scheduling 调度All-Or-NothingElastic Capacity 等多种调度诉求社区演进出了多种调度方案。以机器学习分布式训练作业调度场景中极为常见的Gang Scheduling为例社区目前就有YuniKornVolcanoCoscheduling 等调度器实现提供不同的交互协议我们需要有插件化的手段来启用对应的调度协议。同时像 PS/worker 这类根据业务特有属性不同 role 之间有启动依赖的 DAG 编排诉求需要在控制器中实现分布式训练的结果往往以模型作为 output并存储在分布式文件系统中如(阿里云 OSS/NAS)但如何从训练作业的视角去管理模型像容器镜像那样成为AI服务的“不可变基础设施”并实现简单且清晰的版本管理与追溯业界还缺乏最佳实践。同时“训练”与“推理”两个阶段相对独立算法科学家视角中的“训练-模型-推理”机器学习流水线缺乏断层而“模型”作为两者的中间产物正好能够充当那个“承前启后”的角色分布式训练尚能大力出奇迹但推理服务的规格配置却是一个精细活。显存量、 CPU 核数、BatchSize、线程数等变量都可能影响推理服务的质量。纯粹基于资源水位的容量预估无法反映业务的真实资源需求因为某些引擎如 TensorFlow 会对显存进行预占。理论上存在一个服务质量与资源效能的最优平衡点但它就像黑暗中的幽灵明知道它的存在却难以琢磨。随着 GPU 虚拟化技术的成熟这个平衡点的价值越来越凸显更优的规格能显著提供单 GPU 卡的部署密度节约大量的成本。推理服务本身是一种特殊的 long running 微服务形态除了基础的 deployment 外针对不同的推理场景还欠缺一些实例与流量的管理策略如 1) 算法科学家通常会同时部署两个甚至多个不同版本的模型实例进行 A/B Test 以验证最佳的服务效果需要基于权重的精细化流量控制 2) 能够根据流量请求水平和当前推理服务的 metrics 来自动触发实例的扩缩在充分保障服务可用性的前提下最小化资源成本等等。
KubeDL
针对上述难题阿里巴巴云原生集群管理和 PAI 团队将管理大规模机器学习工作负载的经验沉淀为通用的运行时管理框架——KubeDL涵盖分布式训练模型管理推理服务等机器学习流水线的各阶段使工作负载能够高效地运行在 Kubernetes 之上。 1、分布式训练
KubeDL 支持了主流的机器学习分布式训练框架TensorFlow / PyTorch / MPI / XGBoost / Mars 等其中 Mars 是阿里巴巴计算平台开源的基于张量的大规模数据计算框架能够分布式地加速 numpypandas 等数据处理框架的效率帮助 Mars 作业以更 native 的方式集成进云原生大数据生态中。
我们将各类训练作业生命周期管理中的共同部分进行抽象成为一层通用的运行时库被各分布式训练作业控制器复用同时用户也可以在此基础上快速扩展出自定义的 workload 控制器并复用现有的能力。借助声明式 API 与 Kubernetes 网络/存储模型KubeDL 能够进行计算资源的申请/回收各 Job Role 之间的服务发现与通信运行时的 Fail-over 等算法模型的开发者只需声明好此次训练依赖的 Job Role 及各自的副本数计算资源/异构资源数量等然后提交任务。另外我们针对训练领域的痛点也做了诸多的特性设计来提升训练的效率与体验
不同的训练框架往往包含不同的 Job Role如 TensorFlow 中的 PS/Chief/Worker 和 PyTorch 中的 Master/WorkerRole 与 Role 之间往往隐含着依赖关系如 Worker 依赖 Master 启动之后才能正常开始计算错乱的启动顺序不仅容易造成资源长时间空转甚至可能引发 Job 直接失败。KubeDL 设计了基于 DAGDirect Acyclic Graph的调度编排控制流很好地解决了 Role 之间的启动依赖顺序并能够灵活扩展。大模型的训练时长往往受制于计算节点间的通信效率RDMA 等高性能网络技术的应用将极大地提升了数据的传输速度但这些定制网络往往需要计算节点使用 Hostnetwork 进行互相通信同时有些时候由于环境限制无法提供基于 Service 模式的服务发现机制。这就需要作业管理引擎能够支持 Host 网络模式下的服务发现机制处理好各计算节点的网络端口分配并与各训练框架的特性结合来处理节点 Fail-over 后的网络连通性KubeDL 支持了 Host 网络模式下的高性能分布式训练。Gang Scheduling 是分布式训练作业调度场景中的常见需求组成单个训练作业的一簇 Pod 往往要求同时被调度避免在集群容量紧张时因作业间的资源竞争出现活锁但 Kubernetes 强大的可扩展性也使得不同的调度器实现了不同的 Gang Scheduling 协议如 YuniKorn, KubeBatch 等。为了避免与具体调度器实现的耦合适应不同用户环境的差异KubeDL 将 Gang Scheduling 的协议实现插件化按需启用对应的插件即可与调度器相互协作实现作业的批量调度。Job 是一次性的但在实际的生产应用中我们经常会遇到反复训练/定时训练的场景如每日拉取某一时间区间的离线表并进行数据清洗以及模型的 Re-trainKubeDL 提供了一类单独的工作负载—Cron 来处理定时的训练请求并支持任意类型的训练作业如 TFJobPyTorchJob 等用户可以提交 cron tab 风格的定时命令及作业模板并在 Cron 资源的状态中追踪训练作业的历史及当前进行中的作业。
针对海量离线作业元数据需要长时间保存Job CRD 被删除后元数据即从 etcd 销毁的诉求KubeDL 还内置了元数据的持久化实时监听 Job/Pod/Events 等资源对象的变化转化成对应的 Databse Schema Object 并持久化到存储后端中。存储后端的设计也是插件化的用户可以根据自己的线上环境来实现存储插件并在部署时 enable。在 KubeDL 中 Job/Pod 默认支持了 Mysql 的存储协议以及将 Events 收集到阿里云 SLS 服务中。
同时我们还提供了管控套件KubeDL-Dashboard用户不需要去理解 Kubernetes 的众多 API 并在各种 kubectl 命令中挣扎即可界面化地上手简单易用的机器学习作业。持久化的元数据也可以直接被 Dashboard 消费使用。Dashboard 提供了简单的作业提交、作业管理、事件/日志查看、集群资源视图等功能以极低的学习门槛帮助机器学习用户上手实验。 2、推理服务规格调优 GPU 虚拟化与分时复用技术的发展和成熟让我们有机会在一块 GPU 上同时运行多个推理服务显著降低成本。然而如何为推理服务选择合适的 GPU 资源规格尤其是不可压缩的显存资源成为一个关键难题。一方面频繁的模型迭代让算法工程师无暇去精确估计每个模型的资源需求流量的动态变化也让资源评估变得不准确因此他们倾向于配置较多的 GPU 资源冗余在稳定性和效率之间选择牺牲后者造成大量浪费另一方面由于 Tensorflow 等机器学习框架倾向于占满所有空闲的显存站在集群管理者的角度根据显存的历史用量来估计推理业务的资源需求也非常不准确。在 KubeDL-Morphling 这个组件中我们实现了推理服务的自动规格调优通过主动压测的方式对服务在不同资源配置下进行性能画像最终给出最合适的容器规格推荐。画像过程高度智能化为了避免穷举方式的规格点采样我们采用贝叶斯优化作为画像采样算法的内部核心驱动通过不断细化拟合函数以低采样率20%的压测开销给出接近最优的容器规格推荐结果。
3、模型管理与推理服务 模型是训练的产物是计算与算法结合后的浓缩精华通常收集与维护模型的方式是托管在云存储上通过组织文件系统的方式来实现统一管理。这样的管理方式依赖于严格的流程规范与权限控制没有从系统层面实现模型管理的不可变而容器镜像的诞生解决的就是 RootFS 的构建-分发-不可变等问题KubeDL 将两者进行结合实现了基于镜像的模型管理。训练成功结束后通过 Job Spec 中指定的 ModelVersion 会自动触发模型镜像的构建。用户可以在 ModelVersion.Spec 中约定模型的存储路径目标的镜像 Registry 等基本信息将每次的训练输出 Push 到对应的镜像仓库。 同时镜像作为训练的输出以及推理服务的输入很好地串联起了两个阶段也借此实现了分布式训练-模型构建与管理-推理服务部署的完整机器学习流水线。KubeDL 提供了 Inference 资源对象提供推理服务的部署与运行时控制一个完整的 Inference 服务可以由单个或多个 Predictor 组成每个 Predictor 对应前序训练输出的模型模型会被自动拉取并挂载到主容器 Volume 中。当多个不同模型版本的 Predictor 并存时可以根据分配的权重进行流量的分发与控制达到 A/B Test 的对照实验效果后续我们还会在 Batching 批量推理和 AutoScale 上针对推理服务场景做更多的探索。
KubeDL 分布式训练在公有云上的实践
PAI-DLC随着云计算的深入人心以及越来越多的业务都用云原生的方式进行阿里云计算平台 PAI 机器学习团队推出了 DLCDeep Learning Cloud这一深度学习平台产品。DLC 采用全新的云原生架构底层采用 Kubernetes 作为资源底座支持而训练部分全面采用 KubeDL 进行管理是 KubeDL 在深度学习云计算场景中的大规模实践。
DLC 在阿里集团内部内广泛支撑了众多的业务包括淘系安全部达摩院的图像视频、自然语言、语音、多模态理解、自动驾驶等众多业务部门的深度学习计算需求。在服务于深度学习驱动的前沿业务生产中PAI 团队在框架和平台建设方面积累了许多的经验沉淀了兼容社区egTensorFlow/PyTorch并且具有鲜明特色的大规模工业界实践过的框架平台能力如万亿规模参数的M6模型的训练、工业级图神经网络系统 Graph-Learn、极致资源管理和复用能力等等。
如今PAI-DLC 的能力也在全面拥抱公有云为开发者和企业提供的云原生一站式的深度学习训练平台一个灵活、稳定、易用和高性能的机器学习训练环境以及全面支持支持多种社区和 PAI 深度优化的算法框架高性能且稳定的运行超大规模分布式深度学习任务为开发者和企业降本增效。
公有云的 DLC 作为阿里巴巴集团机器学习平台最佳实践的透出在产品细节、框架优化、平台服务等方面都吸取了工程实践中的宝贵的经验。除此之外DLC 产品在设计之初就充分考量了公有云场景中的独特属性提供了竞价实例、自动 Fail-Over、弹性扩缩等功能为客户努力降低 AI 算力成本。
进一步的DLC 也与 PAI 的其他公有云产品相结合比如说服务于算法工程师建模的 DSW、服务于企业级 AI 全流程的、自动化的 AutoML、在线推理服务 EAS 等打造全流程的 AI 标杆性产品。
原文链接 本文为阿里云原创内容未经允许不得转载。