问题
最近上线跑了一个flink任务,运行不久,就会挂掉,初步查看日志报错如下
WARN org.apache.flink.connector.kafka.source.reader.KafkaSourceReader [] - Failed to commit consumer offsets for checkpoint 1 org.apache.kafka.clients.consumer.RetriableCommitFailedException: Offset commit failed with a retriable exception. You should retry committing the latest consumed offsets. Caused by: org.apache.kafka.common.errors.CoordinatorNotAvailableException: The coordinator is not available.
报错原因为The coordinator is not available.
报错在网上搜了一下,根据网友的经验,是消费组协调leader不存在导致
查看kafka __consumer_offsets topic
kafka-topics.sh -bootstrap-server node1:9092,node2:9092,node3:9092,node4:9092,node5:9092 --topic __consumer_offsets --describe
发现确实有Leader:none的
可能原因是 __consumer_offset topic的默认分区是50,但是备份只有1份; kafka集群部署了5台,也就是5个brokers
消费者组连接kafka,并会请求某一台来查找Coordinator(协调者),如果连接的机器上没有备份就不会有Leader,就会出现
找不到Coordinator(协调者)
查看offsets.topic.replication.factor默认配置
cat kafak/config/server.properties | grep offsets.topic.replication.factor
默认值果然只是1;
解决方式
- 1、停止kafka, 修改kafka配置 config/server.properties添加
修改成broker的数量
offsets.topic.replication.factor=3
- 2、删除zookeeper配置信息
./bin/zkCli.sh -server 127.0.0.1:2181
- 删除/config/topics/__consumer_offsets
delete /config/topics/__consumer_offsets
- 删除/brokers/topics/__consumer_offsets
deleteall /brokers/topics/__consumer_offsets
- 3、重启kafka
- 删除/brokers/topics/__consumer_offsets
- 删除/config/topics/__consumer_offsets
- 2、删除zookeeper配置信息
猜你喜欢
- 3小时前【深度学习目标检测】十六、基于深度学习的麦穗头系统-含GUI和源码(python,yolov8)
- 3小时前[Exceptions]运行hive sql报错NoViableAltException
- 3小时前vue中PC端使用高德地图 -- 实现搜索定位、地址标记、弹窗显示定位详情
- 3小时前【JaveWeb教程】(15) SpringBootWeb之 响应 详细代码示例讲解
- 3小时前Session详解,学习 Session对象一篇文章就够了
- 3小时前unity 浏览器插件【embedded browser(原zfbrowser)】简单教程,使unity支持web h5页面,附软件下载链接
- 3小时前15.单例模式
- 3小时前linux搭建LAMP服务
- 3小时前基于 Eureka 的 Ribbon 负载均衡实现原理【SpringCloud 源码分析】
- 3小时前前端超好玩的小游戏合集来啦--周末两天用html5做一个3D飞行兔子萝卜小游戏
网友评论
- 搜索
- 最新文章
- 热门文章