当前位置: 首页 > news >正文

福州鼓楼区网站建设wordpress备份插件

福州鼓楼区网站建设,wordpress备份插件,企业网站怎么做的更好,网站优化3个关键词和10个关键词的区别内容简介#xff1a; 阿里云容器服务从2015年上线后#xff0c;一路伴随并支撑双十一发展。在2019年的双十一中#xff0c;容器服务ACK除了支撑集团内部核心系统容器化上云和阿里云的云产品本身#xff0c;也将阿里多年的大规模容器技术以产品化的能力输出给众多围绕双十一…内容简介 阿里云容器服务从2015年上线后一路伴随并支撑双十一发展。在2019年的双十一中容器服务ACK除了支撑集团内部核心系统容器化上云和阿里云的云产品本身也将阿里多年的大规模容器技术以产品化的能力输出给众多围绕双十一的生态公司和ISV公司。通过支撑来自全球各行各业的容器云容器服务已经沉淀了支持单元化架构、全球化架构、柔性架构的云原生应用托管中台能力管理了超过1W个以上的容器集群。本文会介绍下容器服务ACK在海量k8s集群管理上的实践经验。 引言  什么是海量k8s集群管理。大家可能之前看过一些分享介绍了阿里巴巴或蚂蚁金服内部如何管理单集群1W节点的最佳实践管理大规模的节点是一个很有意思的挑战。不过这里讲的海量k8s集群管理会侧重讲如何管理超过1W个以上不同规格的k8s集群。跟据我们和一些同行的沟通往往一个企业内部只要管理几个到几十个k8s集群那么我们为什么需要考虑管理如此庞大数量的k8s集群首先容器服务ACK是阿里云上的云产品提供了Kubernetes as a Service的能力面向全球客户目前已经在全球20个地域支持。其次得益于云原生时代的发展越来越多的企业拥抱k8sK8s已经逐渐成为云原生时代的基础设施成为platform of platform。 背景介绍 首先我们一起来看下托管这些k8s集群的痛点 1.集群种类不同有标准的、无服务器的、AI的、裸金属的、边缘、Windows等k8s集群。不同种类的集群参数、组件和托管要求不一样并且需要支撑更多面向垂直场景的k8s。 2.集群大小不一每个集群规模大小不一从几个节点到上万个节点从几个service到几千个service等。需要能够支撑每年持续几倍集群数量的增长。 3.集群安全合规分布在不同的地域和环境的k8s集群需要遵循不同的合规性要求。比如欧洲的k8s集群需要遵循欧盟的GDPR法案在中国的金融业和政务云需要有额外的等级保护等要求。 4.集群持续演进需要能够持续的支持k8s的新版本新特性演进。。 设计目标 1.支持单元化的分档管理、容量规划和水位管理 2.支持全球化的部署、发布、容灾和可观测性 3.支持柔性架构的可插拔、可定制、积木式的持续演进能力 1.支持单元化的分档管理、容量规划和水位管理 单元化         一般讲到单元化大家都会联想到单机房容量不够或二地三中心灾备等场景。那单元化和k8s管理有什么关系对我们来说一个地域比如杭州可能会管理几千个k8s需要统一维护这些k8s的集群生命周期管理。作为一个k8s专业团队一个朴素的想法就是通过多个k8s元集群来管理这些guest K8s master。而一个k8s元集群的边界就是一个单元。 曾经我们经常听说某某机房光纤被挖断某某机房电力故障而导致服务中断容器服务ACK在设计之初就支持了同城多活的架构形态任何一个用户k8s集群的master组件都会自动地分散在多个机房采用主主模式运行不会因单机房问题而影响集群稳定性另外一个层面同时要保证master组件间的通信稳定性容器服务ACK在打散master时调度策略上也会尽量保证master组件间通信延迟在毫秒级。 分档化 大家都知道k8s集群的master组件的负载主要与k8s集群的节点规模、worker侧的controller或workload等需要与kube-apiserver交互的组件数量和调用频率息息相关对于上万个k8s集群每个用户k8s集群的规模和业务形态都千差万别我们无法用一套标准配置来去管理所有的用户k8s集群同时从成本经济角度考虑我们提供了一种更加灵活、更加智能的托管能力。考虑到不同资源类型会对master产生不同的负载压力因此我们需要为每类资源设置不同的因子最终可归纳出一个计算范式通过此范式可计算出每个用户k8s集群master所适应的档位同时我们也会基于已构建的k8s统一监控平台实时指标来不断地优化和调整这些因素值和范式从而可实现智能平滑换挡的能力。 容量规划 接下来我们看下k8s元集群的容量模型单个元集群到底能托管多少个用户k8s集群的master? 首先要确认容器网络规划。这里我们选择了阿里云自研的高性能容器网络Terway, 一方面需要通过弹性网卡ENI打通用户VPC和托管master的网络另一方面提供了高性能和丰富的安全策略。接下来我们需要结合VPC内的ip资源做网段的规划分别提供给node、pod和service。最后我们会结合统计规律结合成本、密度、性能、资源配额、档位配比等多种因素的综合考量设计每个元集群单元中部署的不同档位的guest k8s的个数并预留40%的水位。 2.支持全球化的部署、发布、容灾和可观测性 容器服务已经在全球20个地域支持我们提供了完全自动化的部署、发布、容灾和可观测性能力。这里重点介绍下全球化跨数据中心的可观测。 全球跨数据中心的可观测性 全球化布局的大型集群的可观测性对于k8s集群的日常保障至关重要。如何在纷繁复杂的网络环境下高效、合理、安全、可扩展的采集各个数据中心中目标集群的实时状态指标是可观测性设计的关键与核心。我们需要兼顾区域化数据中心、单元化集群范围内可观测性数据的收集以及全局视图的可观测性和可视化。基于这种设计理念和客观需求全球化可观测性必须使用多级联合方式也就是边缘层的可观测性实现下沉到需要观测的集群内部中间层的可观测性用于在若干区域内实现监控数据的汇聚中心层可观测性进行汇聚、形成全局化视图以及告警。样设计的好处在于可以灵活的在每一级别层内进行扩展以及调整适合于不断增长的集群规模相应的其他级别只需调整参数层次结构清晰网络结构简单可以实现内网数据穿透到公网并汇聚。 针对该全球化布局的大型集群的监控系统设计对于保障集群的高效运转至关重要我们的设计理念是在全球范围内将各个数据中心的数据实时收集并聚合实现全局视图查看和数据可视化以及故障定位、告警通知。进入云原生时代Prometheus作为CNCF中第二个毕业的项目天生适用于容器场景Prometheus 与 Kubernetes 结合一起实现服务发现和对动态调度服务的监控在各种监控方案中具有很大的优势实际上已经成为容器监控方案的标准所以我们也选择了Prometheus作为方案的基础。 针对每个集群需要采集的主要指标类别包括 OS指标例如节点资源CPU, 内存磁盘等水位以及网络吞吐元集群以及用户集群K8s master指标例如kube-apiserver, kube-controller-manager, kube-scheduler等指标K8s组件kubernetes-state-metricscadvisor采集的关于K8s集群状态etcd指标例如etcd写磁盘时间DB sizePeer之间吞吐量等等。 当全局数据聚合后AlertManager对接中心Prometheus驱动各种不同的告警通知行为例如钉钉、邮件、短信等方式。 监控告警架构 为了合理的将监控压力负担分到到多个层次的Prometheus并实现全局聚合我们使用了联邦Federation的功能。在联邦集群中每个数据中心部署单独的Prometheus用于采集当前数据中心监控数据并由一个中心的Prometheus负责聚合多个数据中心的监控数据。基于Federation的功能我们设计的全球监控架构图如下包括监控体系、告警体系和展示体系三部分。 监控体系按照从元集群监控向中心监控汇聚的角度呈现为树形结构可以分为三层 边缘Prometheus 为了有效监控元集群K8s和用户集群K8s的指标、避免网络配置的复杂性将Prometheus下沉到每个元集群内 级联Prometheus 级联Prometheus的作用在于汇聚多个区域的监控数据。级联Prometheus存在于每个大区域例如中国区欧洲美洲区亚洲区。每个大区域内包含若干个具体的区域例如北京上海东京等。随着每个大区域内集群规模的增长大区域可以拆分成多个新的大区域并始终维持每个大区域内有一个级联Prometheus通过这种策略可以实现灵活的架构扩展和演进。 中心Prometheus 中心Prometheus用于连接所有的级联Prometheus实现最终的数据聚合、全局视图和告警。为提高可靠性中心Prometheus使用双活架构也就是在不同可用区布置两个Prometheus中心节点都连接相同的下一级Prometheus。 图2-1 基于Prometheus Federation的全球多级别监控架构 优化策略 监控数据流量与API server流量分离 API server的代理功能可以使得K8s集群外通过API server访问集群内的Pod、Node或者Service。 图3-1 通过API Server代理模式访问K8s集群内的Pod资源 常用的透传K8s集群内Prometheus指标到集群外的方式是通过API server代理功能优点是可以重用API server的6443端口对外开放数据管理简便缺点也明显增加了API server的负载压力。如果使用API Server代理模式考虑到客户集群以及节点都会随着售卖而不断扩大对API server的压力也越来越大并增加了潜在的风险。对此针对边缘Prometheus增加了LoadBalancer类型的service监控流量完全走LoadBalancer实现流量分离。即便监控的对象持续增加也保证了API server不会因此增加Proxy功能的开销。 收集指定Metric 在中心Prometheus只收集需要使用的指标一定不能全量抓取否则会造成网络传输压力过大丢失数据。 Label管理 Label用于在级联Prometheus上标记region和元集群所以在中心Prometheus汇聚是可以定位到元集群的颗粒度。 同时尽量减少不必要的label实现数据节省。 3.支持柔性架构的可插拔、可定制、积木式的持续演进能力 前面两部分简要描述了如何管理海量k8s集群的一些思考然而光做到全球化、单元化的管理还远远不够。k8s能够成功包含了声明式的定义、高度活跃的社区、良好的架构抽象等因素k8s已经成为云原生时代的Linux。我们必须要考虑k8s版本的持续迭代和CVE漏洞的修复必须要考虑k8s相关组件的持续更新无论是CSI、CNI、Device Plugin还是Scheduler Plugin等等。为此我们提供了完整的集群和组件的持续升级、灰度、暂停等功能。 2019年6月阿里巴巴将内部的云原生应用自动化引擎OpenKruise开源这里我们重点介绍下其中的BroadcastJob功能他非常适用于每台worker机器上的组件进行升级或者对每台机器上的节点进行检测。Broadcast Job 会在集群中每个node上面跑一个pod直至结束。类似于社区的DaemonSet, 区别在于DaemonSet始终保持一个pod长服务在每个node上跑而BroadcastJob中最终这个pod会结束。           此外考虑不同k8s使用场景我们提供了多种k8s的cluster profile可以帮助用户提供更方便的集群选择。我们会结合大量集群的实践持续提供更多更好的集群模板。 总结 随着云计算的发展,以Kubernetes为基础的云原生技术持续推动行业进行数字化转型。容器服务ACK提供了安全稳定、高性能的Kubernetes托管服务已经成为云上运行Kubernetes的最佳载体。在本次双11容器服务 ACK 在各个场景为双十一作出贡献支撑了阿里巴巴内部核心系统容器化上云支撑了阿里云微服务引擎MSE、视频云、CDN等云产品也支撑了双11 的生态公司和 ISV 公司包括聚石塔电商云、菜鸟物流云、东南亚的支付系统等等。容器服务ACK会持续前行持续提供更高更好的云原生容器网络、存储、调度和弹性能力端到端的全链路安全能力serverless 和 servicemesh 等能力。 原文链接 本文为云栖社区原创内容未经允许不得转载。
http://www.sadfv.cn/news/160461/

相关文章:

  • 天津工程网站建设网站图片标签
  • 天津平台网站建设推荐惠州seo怎么做
  • 网站建设与维护蒋勇从网站后台管理系统进入
  • 网站建设实训报告要求哪些网站是用php开发的
  • 三、网站开发使用软件环境商业网站的建设与制作
  • 做律师咨询网站西安建设用地规划查询网站
  • 企业形象网站用什么语言开发做网站成功
  • 网站制作设计报价iis搭建网站时
  • 魏县网站建设龙岩seo公司
  • 有字体设计网站亚马逊aws永久免费下载
  • 九台网站域名注册网站建设方案
  • 自己怎么注册网站金融集团网站模板
  • 彩票网站里的统计怎么做wordpress 3.7
  • 织梦网站开发兼职太原跨境电商
  • 网站建设自助建站制作营销策划方案目录
  • 网站到期域名怎么解决成都哪里有做网站建设的
  • 发外链的网址网站描述如何写利于优化
  • 网站模板工具信息流优化师怎么入行
  • 电子商务网站开发课程免费商用图片的网站
  • html视频网站模板怎么用ps做购物网站
  • 网站运营和推广零基础建网站
  • 网站开发涉及服务广州平面设计
  • 网站建设 百度云丹阳市住房建设管理局网站
  • 著名网站用什么语言做后台工商年报网上申报系统官网
  • 商务网站开发作业设计公司画册零感设计
  • 网站建设成本多少wordpress不会代码
  • 青岛网站优化河南核酸检测vip
  • 开发一个网站的步骤流程做网站 网站违法吗
  • 5G网站建设上海注册公司买新能源车
  • 深圳专业学校网站建设北京科技公司