您当前的位置: 首页 > 

宝哥大数据

暂无认证

  • 1浏览

    0关注

    1029博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

Canal问题解析

宝哥大数据 发布时间:2021-01-05 15:13:43 ,浏览量:1

1、消息体过大,当刷数据的时候消息体过大就会报错

解决办法
第一步修改canal服务端mq的配置
canal.mq.maxRequestSize = 1048576 (默认为1m,根据需求修改)

第二部修改队列的最大消息体大小

/bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic test --config max.message.bytes=5242880

2、Deployer记录详细日志, 再instance日志可以查询到解析的日志 在这里插入图片描述

3、CanalParseException: parse row data failed CanalParseException: column size is not match for table

问题解决: 1、在canal.properties里面配置tsdb的mysql数据库,具体配置如下:

canal.instance.tsdb.enable = true
canal.instance.tsdb.dir = ${canal.file.data.dir:../conf}/${canal.instance.destination:}
#canal.instance.tsdb.url = jdbc:h2:${canal.instance.tsdb.dir}/h2;CACHE_SIZE=1000;MODE=MYSQL;
canal.instance.tsdb.url=jdbc:mysql://hadoop:3306/canal_tsdb
canal.instance.tsdb.dbUsername = root
canal.instance.tsdb.dbPassword = root

#canal.instance.tsdb.spring.xml = classpath:spring/tsdb/h2-tsdb.xml
canal.instance.tsdb.spring.xml = classpath:spring/tsdb/mysql-tsdb.xml

2、在数据库里面创建canal_tsdb数据库,数据库的用户需要有创建表的权限。

create database canal_tsdb;

4、Failed on my_net_write() 未解决 修改connect_timeout时长

connect_timeout  从15改到120 
关注
打赏
1587549273
查看更多评论
立即登录/注册

微信扫码登录

0.0383s