您当前的位置: 首页 >  ar

段智华

暂无认证

  • 0浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

第117课: Spark Streaming性能优化:如何最大程度的确保Spark Cluster和Kafka链接的稳

段智华 发布时间:2016-06-04 21:03:37 ,浏览量:0

第117课:  Spark Streaming性能优化:如何最大程度的确保Spark Cluster和Kafka链接的稳定性

1 Spark Streaming与Kafka连接问题 2 KafkaReceiver

spark2.x弄了一个静态类型检查,python就不能用

ZkUtils.scala zookeeper.session.timeout.ms 系统默认6000 6s,这个超时zk就资源重新分配,所有数据都不能接收。考虑GC等因素,zookeeper.seesion.timeout.ms这个值在生产环境中设置为30s。30000  ACK确认

 

 

ZkUtils

class ZKConfig(props: VerifiableProperties) {  /** ZK host string */  val zkConnect = props.getString("zookeeper.connect")   /** zookeeper session timeout */  val zkSessionTimeoutMs = props.getInt("zookeeper.session.timeout.ms", 6000)  

/** the max time that the client waits to establish a connection to zookeeper */  val zkConnectionTimeoutMs = props.getInt("zookeeper.connection.timeout.ms",zkSessionTimeoutMs)   /** how far a ZK follower can be behind a ZK leader */  val zkSyncTimeMs = props.getInt("zookeeper.sync.time.ms", 2000)}

 

 

ZookeeperConsumerConnector.scala

 

关注
打赏
1659361485
查看更多评论
立即登录/注册

微信扫码登录

0.0433s