当前位置: 首页 > news >正文

优秀国外网站爱站权重查询

优秀国外网站,爱站权重查询,超低价的郑州网站建设,聊城做网站推广找谁目录 1. 生产者端:确保消息成功发送到Broker 核心机制: 关键步骤: 2. Broker端:持久化与副本同步 核心机制: 关键源码逻辑: 3. 消费者端:可靠消费与Offset提交 核心机制: 关…

目录

1. 生产者端:确保消息成功发送到Broker

核心机制:

关键步骤:

2. Broker端:持久化与副本同步

核心机制:

关键源码逻辑:

3. 消费者端:可靠消费与Offset提交

核心机制:

关键步骤:

4. 全链路保障流程

消息丢失的典型场景与规避

总结


  1. 生产者端
    • 设置acks=all确保所有ISR副本写入成功。
    • 启用重试(retries)和幂等性(enable.idempotence=true,依赖ProducerIdSequenceNumber)。
  1. Broker端
    • 副本数replication.factor≥3,ISR最小副本数min.insync.replicas≥2
    • 使用flush机制定期刷盘(通过log.flush.interval.messages配置)。
  1. 消费者端
    • 手动提交Offset(enable.auto.commit=false),处理完消息后调用commitSync()

Kafka通过生产者端确认机制Broker端持久化与副本同步消费者端可靠消费三个核心环节保障消息不丢失。以下是具体实现机制与步骤:


1. 生产者端:确保消息成功发送到Broker

核心机制
  • acks确认机制
    • acks=0:生产者不等待Broker确认,可能丢失消息(不推荐)。
    • acks=1:Leader副本写入即确认,若Leader宕机且未同步到其他副本,可能丢失。
    • acks=all(或acks=-1:必须等待所有ISR副本写入成功,才返回确认(最高可靠性)。
  • 重试机制
    • 配置retries=N(如3次),在Broker临时故障时自动重试。
    • 幂等性(enable.idempotence=true):通过Producer IDSequence Number去重,避免网络重试导致消息重复。
关键步骤
// 生产者配置示例
Properties props = new Properties();
props.put("acks", "all");          // 必须所有ISR副本确认
props.put("retries", 3);           // 重试次数
props.put("enable.idempotence", "true"); // 开启幂等性

2. Broker端:持久化与副本同步

核心机制
  • 副本机制(Replication)
    • 每个Partition有多个副本(replication.factor≥3),Leader处理读写,Follower同步数据。
    • ISR(In-Sync Replicas):只有与Leader保持同步的副本才属于ISR集合。
    • min.insync.replicas=2:至少需要2个ISR副本写入成功,否则生产者抛出NotEnoughReplicasException
  • 持久化策略
    • 页缓存(Page Cache):依赖操作系统缓存加速写入,数据异步刷盘。
    • 强制刷盘:通过log.flush.interval.messageslog.flush.interval.ms控制刷盘频率(高可靠性场景建议启用)。
  • Leader选举与数据恢复
    • 若Leader宕机,Controller从ISR中选举新Leader,确保数据不丢失。
    • 若所有ISR副本宕机,需配置unclean.leader.election.enable=false(禁止非ISR副本成为Leader)。
关键源码逻辑
  • 副本同步:Leader通过ReplicaFetcherThread向Follower同步数据(源码见kafka.server.ReplicaFetcherThread)。
  • ISR管理:Broker定期检查Follower的同步状态,延迟超过replica.lag.time.max.ms的副本会被移出ISR。

3. 消费者端:可靠消费与Offset提交

核心机制
  • 手动提交Offset
    • 关闭自动提交enable.auto.commit=false),在消息处理完成后手动调用commitSync()commitAsync()
    • 若消费者崩溃,下次启动时从最后提交的Offset恢复,避免消息丢失。
  • 事务性消费
    • 结合Kafka事务(isolation.level=read_committed),仅消费已提交的事务消息。
关键步骤
// 消费者配置示例
props.put("enable.auto.commit", "false"); // 关闭自动提交
while (true) {ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));for (ConsumerRecord<String, String> record : records) {processRecord(record); // 处理消息consumer.commitSync(); // 处理完成后提交Offset}
}

4. 全链路保障流程

  1. 生产者发送
    • 消息发送后等待acks=all确认。
    • 若Broker未确认,按retries重试。
  1. Broker持久化
    • Leader和ISR副本将消息写入日志文件。
    • 根据配置决定是否强制刷盘。
  1. 消费者消费
    • 处理消息后手动提交Offset。
    • 若消费者崩溃,从已提交Offset恢复。

消息丢失的典型场景与规避

场景

规避措施

生产者acks=1

,Leader宕机

使用acks=all

+ min.insync.replicas=2

ISR副本不足导致写入失败

增加replication.factor

,确保min.insync.replicas

≤ 当前ISR副本数。

消费者自动提交Offset,消息未处理

关闭自动提交,处理完成后手动提交。

磁盘故障导致数据丢失

使用RAID或分布式存储,确保多副本分布在不同物理节点。


总结

Kafka通过以下组合策略保障消息不丢失:

  1. 生产者端acks=all + 幂等性 + 重试。
  2. Broker端:多副本同步 + ISR管理 + 强制刷盘。
  3. 消费者端:手动提交Offset + 事务性消费。

正确配置后,Kafka可提供至少一次(At-Least-Once)或精确一次(Exactly-Once) 的语义保障。

http://www.ds6.com.cn/news/88581.html

相关文章:

  • 小程序源码加密优化营商环境心得体会
  • 仿webqq织梦管理网站后台模板软文标题例子
  • wordpress文章到期自动下沉seo排名的影响因素有哪些
  • 建设网络平台 英语seo推广效果
  • 哪家做网站靠谱制作网页的代码
  • vue 做门户网站域名注册需要什么条件
  • 单页网页设计图片东莞市网络seo推广价格
  • 昌黎网站建设十大洗脑广告
  • wordpress主题安装说明360优化大师官方网站
  • 网站注册信息查询b站推广费用一般多少
  • 合肥高端网站建设事件营销成功案例
  • 基于web的美食网页设计长沙正规竞价优化推荐
  • 做外汇新闻网站河北疫情最新情况
  • 国家级示范校建设网站谷歌seo推广公司
  • 唐山建设网站公司阿里指数在哪里看
  • wordpress设置会员有效期seo研究中心培训机构
  • ppt素材网站建设流程图网络营销方法
  • 常州酒店网站建设公众号推广渠道
  • 德阳网站建设公司不受国内限制的浏览器下载
  • 有口碑的做网站最新热点新闻事件
  • wordpress 黑二十条优化措施原文
  • 能用织梦做动态网站么国内新闻最新消息今天
  • 行业门户网站运营方案自己怎么做百度推广
  • 建网站知乎百度爱采购推广效果怎么样?
  • 永定门网站建设百度app登录
  • 二手网站哪些做的比较好互联网哪个行业前景好
  • 编程跟做网站关键词优化的建议
  • 在线做热图的网站网站推广包括
  • 厦门专业做网站的公司优化神马网站关键词排名价格
  • 保定网站开发微信管理软件哪个最好