当前位置: 首页 > news >正文

内蒙古建设银行网站个人主页代码

内蒙古建设银行网站,个人主页代码,wordpress免备案,中国建设行业信息网站面试题来源#xff1a; 《大数据面试题 V4.0》 大数据面试题V3.0#xff0c;523道题#xff0c;679页#xff0c;46w字 可回答#xff1a;Kafka如何保证生产者不丢失数据#xff0c;消费者不丢失数据#xff1f; 参考答案#xff1a; 存在数据丢失的几种情况 使用…面试题来源 《大数据面试题 V4.0》 大数据面试题V3.0523道题679页46w字 可回答Kafka如何保证生产者不丢失数据消费者不丢失数据 参考答案 存在数据丢失的几种情况 使用同步模式的时候有3种状态保证消息被安全生产在配置为1只保证写入leader成功的话如果刚好leader partition挂了数据就会丢失。 还有一种情况可能会丢失消息就是使用异步模式的时候当缓冲区满了如果配置为0还没有收到确认的情况下缓冲池一满就清空缓冲池里的消息数据就会被立即丢弃掉。 避免方法的一些概述 1、在数据生产时避免数据丢失的方法 只要能避免上述两种情况那么就可以保证消息不会被丢失。 1在同步模式的时候确认机制设置为-1也就是让消息写入leader和所有的副本。 2在异步模式下如果消息发出去了但还没有收到确认的时候缓冲池满了在配置文件中设置成不限制阻塞超时的时间也就说让生产端一直阻塞这样也能保证数据不会丢失。 在数据消费时避免数据丢失的方法确认数据被完成处理之后再更新offset值。低级API中需要手动控制offset值。 消息队列的问题都要从源头找问题就是生产者是否有问题。 讨论一种情况如果数据发送成功但是接受response的时候丢失了机器重启之后就会重发。 重发很好解决消费端增加去重表就能解决但是如果生产者丢失了数据问题就很麻烦了。 2、数据重复消费的情况处理情况如下 1去重将消息的唯一标识保存到外部介质中每次消费处理时判断是否处理过 2不管大数据场景中报表系统或者日志信息丢失几条都无所谓不会影响最终的统计分析结。 Kafka到底会不会丢数据(data loss)? 通常不会但有些情况下的确有可能会发生。下面的参数配置及Best practice列表可以较好地保证数据的持久性(当然是trade-off牺牲了吞吐量)。 如果想要高吞吐量就要能容忍偶尔的失败重发漏发无顺序保证。 block.on.buffer.full trueacks allretries MAX_VALUEmax.in.flight.requests.per.connection 1使用KafkaProducer.send(record, callback)callback逻辑中显式关闭producerclose(0) unclean.leader.election.enablefalsereplication.factor 3 min.insync.replicas 2replication.factor min.insync.replicasenable.auto.commitfalse 消息处理完成之后再提交位移 给出列表之后我们从两个方面来探讨一下数据为什么会丢失 Producer端 新版本的Kafka替换了Scala版本的old producer使用了由Java重写的producer。新版本的producer采用异步发送机制。KafkaProducer.send(ProducerRecord)方法仅仅是把这条消息放入一个缓存中(即RecordAccumulator本质上使用了队列来缓存记录)同时后台的IO线程会不断扫描该缓存区将满足条件的消息封装到某个batch中然后发送出去。显然这个过程中就有一个数据丢失的窗口若IO线程发送之前client端挂掉了累积在accumulator中的数据的确有可能会丢失。 Producer的另一个问题是消息的乱序问题。假设客户端代码依次执行下面的语句将两条消息发到相同的分区 producer.send(record1);producer.send(record2); 如果此时由于某些原因(比如瞬时的网络抖动)导致record1没有成功发送同时Kafka又配置了重试机制和max.in.flight.requests.per.connection大于1(默认值是5本来就是大于1的)那么重试record1成功后record1在分区中就在record2之后从而造成消息的乱序。很多某些要求强顺序保证的场景是不允许出现这种情况的。发送之后重发就会丢失顺序。 鉴于producer的这两个问题我们应该如何规避呢对于消息丢失的问题很容易想到的一个方案就是既然异步发送有可能丢失数据 我改成同步发送总可以吧比如这样 producer.send(record).get(); 这样当然是可以的但是性能会很差不建议这样使用。以下的配置清单应该能够比较好地规避producer端数据丢失情况的发生(特此说明一下软件配置的很多决策都是trade-off下面的配置也不例外应用了这些配置你可能会发现你的producer/consumer 吞吐量会下降这是正常的因为你换取了更高的数据安全性)。 block.on.buffer.full true 尽管该参数在0.9.0.0已经被标记为“deprecated”但鉴于它的含义非常直观所以这里还是显式设置它为true使得producer将一直等待缓冲区直至其变为可用。否则如果producer生产速度过快耗尽了缓冲区producer将抛出异常。缓冲区满了就阻塞在那不要抛异常也不要丢失数据。 acksall 很好理解所有follower都响应了才认为消息提交成功即committed。 retries MAX 无限重试直到你意识到出现了问题。 max.in.flight.requests.per.connection 1 限制客户端在单个连接上能够发送的未响应请求的个数。设置此值是1表示kafka broker在响应请求之前client不能再向同一个broker发送请求。注意设置此参数是为了避免消息乱序。 使用KafkaProducer.send(record, callback)而不是send(record)方法 自定义回调逻辑处理消息发送失败比如记录在日志中用定时脚本扫描重处理。 callback逻辑中最好显式关闭producerclose(0) 注意设置此参数是为了避免消息乱序仅仅因为一条消息发送没收到反馈就关闭生产者感觉代价很大。 unclean.leader.election.enablefalse 关闭unclean leader选举即不允许非ISR中的副本被选举为leader以避免数据丢失。 replication.factor 3 参考了Hadoop及业界通用的三备份原则。 min.insync.replicas 1 消息至少要被写入到这么多副本才算成功也是提升数据持久性的一个参数。与acks配合使用保证replication.factor min.insync.replicas 如果两者相等当一个副本挂掉了分区也就没法正常工作了。通常设置replication.factor min.insync.replicas 1即可。 Consumer端 consumer端丢失消息的情形比较简单如果在消息处理完成前就提交了offset那么就有可能造成数据的丢失。由于Kafka consumer默认是自动提交位移的所以在后台提交位移前一定要保证消息被正常处理了因此不建议采用很重的处理逻辑如果处理耗时很长则建议把逻辑放到另一个线程中去做。为了避免数据丢失现给出两点建议 enable.auto.commitfalse关闭自动提交位移 在消息被完整处理之后再手动提交位移
http://www.sadfv.cn/news/329743/

相关文章:

  • 视差网站企业宣传册文案范文
  • 免费网站设计工具表白网站制作平台
  • 黄埔网站开发云南网红
  • 学校建设网站费用申请黑龙江建设网站招聘
  • 怎么做公司网站seoh5和html5的区别
  • 由前台有后台的网站怎么做辽宁省大学生创新创业平台
  • 企业网站建设产品设计书惠州网站建设翻译
  • 网站建设胶州西安百度推广优化托管
  • 汾阳做网站的公司廊坊网站推广排名
  • 网站怎么快速做收录网站建设公司有多少家
  • 如何评价一个网站做的好不好如何学习wordpress
  • dtcms网站开发全屋家装
  • 广州市规划建设局网站织梦网站怎么做seo
  • 网站内容与标题的区别苏州网站建设制作
  • 珠海网络营销网站建设搜索竞价排名
  • 西安市社交网站制作公司域名和网站建站公司链接
  • 岳阳网站开发网站描述修改
  • 和动物做的网站吗注册安全工程师的报考条件
  • 企业网站推广的方法seo排名助手
  • 手机自适应的网站怎么做开发一个定制的网站
  • 主流的网站开发技术有搭建网页聊天室
  • 网站的建设过程书店网站建设个人总结
  • 神农架网站制作陕西城乡建设厅网站
  • 备案里的网站名称网络销售平台排名前十
  • 建设网站需要几级安全等保dz论坛网站建设
  • 客户可以自主发帖的网站建设打开百度一下网页版
  • seo建站需求桂林网站搭建
  • jsp网站建设 书籍淄博企业网站建设哪家好
  • 电子商务毕业设计设计电商网站建设四川建设厅官网查询官网
  • 黄骅市有火车站吗中国十大招商平台