FlinkCDC 入门之数据同步和故障恢复
创始人
2025-05-31 00:24:01
0

前言

FlinkCDC 是一款基于 Change Data Capture(CDC)技术的数据同步工具,可以用于将关系型数据库中的数据实时同步到 Flink 流处理中进行实时计算和分析,下图来自官网的介绍。img

下图1是 FlinkCDC 与其它常见 开源 CDC 方案的对比:

2

可以看见的是相比于其它开源产品,FlinkCDC 不仅支持增量同步,还支持全量/全量+增量的同步,同时 FlinkCDC 还支持故障恢复(基于检查点机制实现),能够快速恢复数据同步的进度,并且支持的数据源也很丰富2(在 2.3 版本已支持 MongoDB、MySQL、OceanBase、Oracle、PostgressSQL、SQLServer、TiDB、Db2 等数据源)。

本文将介绍 FlinkCDC 在数据同步和故障恢复等方面的内容(以 MySQL 和 Oracle 为例),同时完整代码也已上传到GitHub。

效果展示

MySQL

动画

Oracle(相比 MySQL 延迟会稍高)

动画

数据库配置

MySQL(5.7)

修改my.cnf配置文件(Windows 下是 my.ini 文件),增加以下配置内容:

[mysqld]
# 开启 binlog
log-bin=mysql-bin
# 选择 ROW 模式
binlog-format=ROW
# 对于 MySQL 集群, 不同节点的 server_id 必须不同
server_id=1
# 过期时间
expire_logs_days=30

Tips: 修改完成后需要重启 MySQL 服务

建库建表:

# 建库
create database flink;
# 建表
create table flink.`user` (`id` bigint(20) not null,`username` varchar(20) default null,`password` varchar(63) default null,`status` int(2) default null,`create_time` datetime default null,primary key (`id`)
) ENGINE = InnoDB default CHARSET = utf8mb4;

创建用户并授权:

# 创建用户 flink
CREATE USER flink IDENTIFIED BY 'flink';
# 授权
GRANT SELECT, RELOAD, SHOW DATABASES, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'flink'@'%';
# 将 flink 库的所有权限授权给 flink 用户
GRANT ALL PRIVILEGES ON flink.* TO 'flink'@'%';
# 刷新权限
FLUSH PRIVILEGES;

Oracle(11g)

以 DBA 身份连接:

# SID 需要根据实际情况进行设置, 比如: XE.
export ORACLE_SID=SID
sqlplus /nolog
CONNECT sys/manager AS SYSDBA

配置日志:

alter system set db_recovery_file_dest_size = 20G;
# 日志文件的地址可以根据自己的情况进行设置
alter system set db_recovery_file_dest = '/opt/oracle/oradata/recovery_area' scope=spfile;
shutdown immediate;
startup mount;
alter database archivelog;
alter database open;

确认是否配置成功:

archive log list;

image-20230319172813540

创建用户并授权:

CREATE USER flink IDENTIFIED BY flink;
GRANT CREATE SESSION TO flink;
GRANT FLASHBACK ANY TABLE TO flink;
GRANT SELECT ANY TABLE TO flink;
GRANT SELECT_CATALOG_ROLE TO flink;
GRANT EXECUTE_CATALOG_ROLE TO flink;
GRANT SELECT ANY TRANSACTION TO flink;
GRANT CREATE TABLE TO flink;

建表并增加日志记录:

# 建表
CREATE TABLE flink."user" (id NUMBER NOT NULL,username VARCHAR2(20),password VARCHAR2(63),status INTEGER,create_time TIMESTAMP,PRIMARY KEY(id)
);
# 日志配置
ALTER TABLE flink."user" ADD SUPPLEMENTAL LOG DATA (ALL) COLUMNS;

代码配置

运行环境

依赖版本
Java17
flink-connector2.1.0
flink1.13.0
maven3.6.2

连接配置

flinkcdc:data-source:# 默认类型为 MySQLaddr: localhost:3306database: flinkusername: flinkpassword: flinktable-list:- user

Tips: 关于数据源的连接完整配置属性可参考 DataSourceProperties.java 文件,关于检查点的配置可参考 CheckPointProperties.java 文件

恢复点配置

为了实现故障恢复(应用停止运行过程中数据库有增删改操作的情况)的情况,需要在代码中进行恢复点的相关配置:

// 获取配置的恢复点路径, 首次运行不存在会默认进行创建
var saveDir = checkPointProperties.getSaveDir();
var folder = new File(saveDir);
if (!folder.exists() && !folder.isDirectory()) {if (!folder.mkdirs()) {throw new IllegalStateException("文件夹创建失败");}
}
var dataSourceType = dataSourceProperties.getType().name().toLowerCase();
var dataSourceSaveDir = saveDir + File.separator + dataSourceType;
var savepointDir = SavepointUtils.getSavepointRestore(dataSourceSaveDir);
var configuration = new Configuration();
if (savepointDir != null) {// 设置恢复点路径var savepointRestoreSettings = SavepointRestoreSettings.forPath(savepointDir);SavepointRestoreSettings.toConfiguration(savepointRestoreSettings, configuration);
}
// 启用检查点并设置检查点的保存路径
var env = StreamExecutionEnvironment.getExecutionEnvironment(configuration);
env.enableCheckpointing(checkPointProperties.getInterval(), CheckpointingMode.EXACTLY_ONCE);
var checkpointConfig = env.getCheckpointConfig();
checkpointConfig.setCheckpointStorage(checkPointProperties.getStorageType().getPrefix() + dataSourceSaveDir);

通用注意点

为了避免数值类型显示是一堆字符串,需要增加以下配置:

// 详见 https://github.com/ververica/flink-cdc-connectors/wiki/FAQ(ZH)#%E9%80%9A%E7%94%A8-faq Q5
prop.setProperty("bigint.unsigned.handling.mode","long");
prop.setProperty("decimal.handling.mode","double");

ORACLE 配置注意点

为了避免日志增长过快以及读取日志满的问题,需要增加以下配置:

// 详见 https://github.com/ververica/flink-cdc-connectors/wiki/FAQ(ZH)#oracle-cdc-faq Q1
prop.setProperty("log.mining.strategy", "online_catalog");
prop.setProperty("log.mining.continuous.mine", "true");

对于 Oracle 11g,连接配置中需要增加:

// 详见 https://github.com/ververica/flink-cdc-connectors/wiki/FAQ(ZH)#oracle-cdc-faq Q2
prop.setProperty("database.tablename.case.insensitive", "false");

项目运行及使用介绍

下载代码

由于本人将博客相关的示例代码都集中到了一个仓库,因此如果不想拉取整个仓库,推荐使用GitZip for github这个插件,就可以只下载部分的文件(选中指定文件后点击右下角的下载按钮):

image-20230319183238608

使用介绍

对于需要监控的表,只需要创建相应的实体类,并新建一个类继承AbstractMessageListener(可重写其中的 create、delete、update、read等方法处理相应的事件)即可,其中 FlickCdcMessageListener 注解内的参数填相应的表名即可监听相应的表变更事件(同时需要在 yaml 文件中 tableList 中增加要监听的表,如果是 Oracle 数据库还需要增加日志配置):

import cn.butterfly.flinkcdc.annotation.FlickCdcMessageListener;
import cn.butterfly.flinkcdc.pojo.User;
import lombok.extern.slf4j.Slf4j;
import org.springframework.stereotype.Component;/*** 用户表消息监听器** @author zjw* @date 2023-03-14*/
@Slf4j
@Component
@FlickCdcMessageListener("user")
public class UserMessageListener extends AbstractMessageListener {@Overridepublic void create(User user) {log.info("新增用户: {}", user);}}

其它注意点

  1. FlinkCDC 默认的同步策略是第一次运行先进行全量同步,后续即可进行增量读取,因此表数据量比较大的时候,重写 AbstractMessageListener#read 方法时需要特别注意处理大量数据的情况。
  2. 由于 Flink CDC 是根据数据库的事务日志来获取数据更改的,如果恢复点之后发生了数据更改,那么在恢复点之后的数据将被重复读取,因此需要考虑重复读取的情况。

总结

本文简单介绍了 FlinkCDC 的数据同步和故障恢复方面的内容,对相关基础知识进行了省略(例如检查点),如果是第一次接触和使用 FlinkCDC,建议先结合官网的示例进行学习,同时建议先通读一篇官方的FAQ。

参考文献

  1. 基于 Flink CDC 实现海量数据的实时同步和转换
  2. https://github.com/ververica/flink-cdc-connectors#supported-tested-databases

相关内容

热门资讯

知名投资人段永平再发声,坚定看... 来源:茅台时空 据上海证券报报道,知名投资人段永平于7月19日在社交平台发声,再度表达对茅台的坚定信...
申报新三板挂牌17月未过审!利... 导读:重数传媒新三板挂牌申请的审核时长已明显大幅超越了同期申报企业,其第三次A股上市进程再度陷入缓慢...
天阳科技:公司服务于以银行为主... 证券之星消息,天阳科技(300872)07月22日在投资者关系平台上答复投资者关心的问题。 投资者提...
泰凯英IPO:北交所细分行业龙... 来源:挖贝网 据《北京证券交易所上市委员会2025年第15次审议会议公告》显示,北京证券交易所上市委...
太平洋证券研究院副院长刘国清离... 来源:市场资讯 来源:金融人事mini 今年初,原华金证券研究所所长孙远峰加盟太平洋证券担任总经理助...
AWS上海AI研究院解散 官方... DoNews7月23日消息,22日,AWS 亚马逊云科技上海 AI 研究院的首席应用科学家王敏捷发朋...
天弘2只光伏基金跌麻了!三年半... 作者 |郑理 各家公募二季度报告陆续揭开面纱,1.2万亿公募巨头天弘基金管理有限公司(下称“天弘基金...
连亏四年割肉券商,锦龙股份跨界... 手握两张券商牌照的锦龙股份(000712.SZ)正在寻求转型。 7月23日,锦龙股份公告称,公司与广...
悉尼华人区15位业主“合伙卖房... 《澳洲金融评论报》7月23日报道,家住悉尼华人区Carlingford的居民Mario Gabrae...
石破茂证实日美达成协议:美对日... 当地时间23日,日本首相石破茂在直播记者会上称,日本与美国就关税问题达成一致,美方将向日本征收15%...
资金大举净流入这类ETF 受基建、煤炭板块大涨影响,资金强势流入相关ETF,本周前两个交易日,建材ETF(516750)等吸引...
6.52万元/平米!绿城46.... 苏州住宅楼板价纪录再次被绿城中国(03900.HK)刷新。 7月23日,江苏省苏州市两宗住宅地块成功...
原创 3... 在股市,资金多还是少赚钱都难,小凡玩ETF只是不会踏空,那些玩股票的冷暖自知。 牛市第一阶段玩ETF...
GTC泽汇:美元承压与黄金资产... 年初以来,美元持续走弱,维持在多年低点附近,其贬值并非短期波动,而是长期趋势延续的结果。这一局面使得...
原创 从... 当“反内卷”政策遇上了万亿级别的雅下水电大规模投资政策,对周期行业来说,无疑迎来了重要性的发展机遇。...
A股又蹦迪!万亿成交藏玄机?内... 来源:倪卫涛 今天A股又把散户玩明白了:指数创新高,你怕得想割肉;刚卖完就拉升,回头一看大腿拍肿。内...
雅下水电概念横空出世!恒立钻具... 7月21日至23日,A股雅下水电概念连续大涨。 图源:图虫 其中,恒立钻具(836942.BJ)连...
多地市场监管部门约谈外卖平台,... 南都讯 记者李玲7月18日,市场监管总局开展行政约谈,要求饿了么、美团、京东进一步规范促销行为,理性...
原创 被... 雷达财经鸿途出品 文|姚柏臣 编|孟帅 7月18日晚,家居零售巨头美凯龙发布的一则公告引发行业关注:...
上证综指盘中突破3600点!业... 上证综指盘中再创年内新高。交易行情数据显示,7月23日盘中,上证综指突破3600点,最高达3613....