你们再不看我的文章,我就转行做手抓饼了,摊位已看好,欢迎每天早晨来买一个O(∩_∩)O,有没有怜香惜玉的,来一波订阅。
上篇文章主要介绍 Flink 怎么初始化 StreamExecutionEnvironment,以及怎么 Flink 中使用注解,大家都知道 Flink 和 Spring 结合会有各种问题,如果想看怎么解决 Flink 和 Spring 的结合问题,请移步上一篇文章《Flink 如何基于注解使用 Spring 中的 MongoTemplate、RedisTemplate 等》,同时也是 Flink 入门很好的资料。
本文主要介绍如何在 Flink 中实现通用 Mapper 的集成以及动态多数据源切换,彻底解决 Flink 中的依赖注入,以及各种 DB 连接的问题。本文最后会介绍kafka的一些原理以及 Flink 怎么消费和推送 Kafka。
涨知识的点:
- 为什么我们花了一年的时间从 Java 转为 Flink?
- Flink操作数据库您还在使用 JDBC 吗?
- 骚不骚?Flink 中也可以一个注解搞定动态多数据源切换
- 浪不浪?Flink 中实现 JPA 以及 MyBatis 的功能,与数据库交互更简易
- Kafka 分区、顺序消费、Ack 机制
- Flink 消费和推送 Kakfa
作为 Flink 重要 Source,Kafka 的消费是必须要掌握的知识点,而消费 Kafka 不仅仅几行代码事情,对分区、顺序问题、以及确认机制不了解,会出现数据丢失重复消费的问题,在本文中会做详解。
作为 Flink 重要 Sink,我们如果操作多数据源,全部用 JDBC 的形式,没有好的 ORM 框架,会增加我们很多开发量且不易维护,本文会提供一套基于 MyBatis 的 ORM 框架。
面向对象:Java 程序员、Flink 实时计算工程师
阅读全文: http://gitbook.cn/gitchat/activity/5ecde27efb2d034ba7658571
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。