MySQL CDC(变更数据捕获)
一、基本原理
1. Binlog
Binlog(Binary Log),即二进制日志,是MySQL用于记录数据库所有更改操作的日志,它是MySQL复制(Replication)的基础,记录了所有对数据库进行修改的SQL语句,通过启用binlog,可以将所有数据修改操作记录下来,包括插入、更新和删除等。
2. binlog格式
Statement:记录每一行数据的修改细节,不记录上下文信息,这种模式的优点是节省空间,但缺点是无法捕捉到一些特定函数的返回值,可能导致主从复制的数据不一致。
Mixed:结合了Statement和Row两种模式,一般在Mysql5.7.7及以上版本使用,它在Statement模式下记录大部分内容,当遇到无法准确复制的SQL时,会以Row格式记录。
Row:记录每一行数据的修改,不记录上下文信息,这种模式的优点是能够详细记录每一行的变化,确保数据一致性,但缺点是日志文件较大,占用更多存储空间。
3. 实现步骤
配置MySQL以启用binlog
在MySQL配置文件中添加以下参数:
[mysqld] log-bin=mysql-bin binlog-format=ROW binlog-row-image=full
重启MySQL实例使配置生效。
使用CDC工具连接MySQL并捕获binlog
常用的CDC工具包括Debezium、Maxwell等,这些工具可以通过解析binlog来捕获数据变化。
解析binlog内容
解析binlog中的事务和数据操作,将其转换为结构化的数据格式,如JSON或CSV。
将数据推送到下游处理过程
将解析后的数据发送到实时计算引擎、数据仓库或其他数据处理系统。
二、应用场景
1. 实时数据同步
企业应用系统需要将MySQL的数据同步到其他数据源(如缓存、数据仓库、搜索引擎等),可以使用MySQL CDC实现实时数据同步,通过截取MySQL主从复制流中的binlog,将数据实时同步到其他目标数据源,确保数据的最新状态。
2. 实时计算
MySQL CDC可以将数据变更事件实时推送到流式计算引擎(如Apache Flink、Apache Spark等)进行实时计算和分析,通过将实时计算的结果写回MySQL中,可以实现实时的数据统计、分析和决策支持。
3. 数据集成
MySQL CDC可以作为数据集成的中间层,通过解析binlog实现异构数据的读取和写入,可以将MySQL中的数据同步到MongoDB中,或将Kafka中的数据写入MySQL中,这样,在各个数据系统之间实现快速、实时、可靠的数据集成。
三、实战案例
1. 安装Debezium Connector
Debezium是一种流行的开源CDC实现,支持从MySQL、PostgreSQL等关系型数据库中提取数据变更并将其广播到Kafka,以下是使用Docker安装Debezium Connector的步骤:
docker run -it --rm --name debezium -p 8083:8083 debezium/connect
2. 创建MySQL实例和新表
CREATE DATABASE demo; USE demo; CREATE TABLE user ( id INT PRIMARY KEY AUTO_INCREMENT, name VARCHAR(50) NOT NULL, age INT NOT NULL );
3. 启用binlog
在MySQL的配置文件中设置启用binlog:
[mysqld] log-bin=mysql-bin binlog-format=ROW binlog-row-image=full
重启MySQL实例。
4. 创建Debezium连接
执行以下curl命令,创建与MySQL实例的连接:
curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" http://localhost:8083/connectors/ -d ' { "name": "demo-connector", "config": { "connector.class": "io.debezium.connector.mysql.MySqlConnector", "database.hostname": "mysql", "database.port": "3306", "database.user": "root", "database.password": "root", "database.server.id": "1", "database.server.name": "test", "database.include.list": "demo", "table.include.list": "demo.user", "database.history.kafka.bootstrap.servers": "kafka:9092", "database.history.kafka.topic": "schema-changes.demo" } }'
5. 查看数据变更
现在可以通过监控Kafka中的实时数据变更事件来捕获MySQL的数据变更信息:
docker run -it --rm --name debezium-toolkit --link debezium:kafka --network mysql-cdc_default debezium/tooling:latest debezium-connector-mysql/bin/mysqlbinlog --raw --verbose -d demo -t user --schema=test --host=kafka --port=9092
在另一个终端窗口中,进行如下的MySQL插入操作:
USE demo; INSERT INTO user(name, age) VALUES('john', 18);
插入完成后,Debezium即会输出以下信息表示成功推送该数据变更:
#...chunk of binlog... { "database": "demo", "table": "user", "type": "insert", "ts": 1633093513, "xid": 1, "commit": 1, "data": { "id": "1", "name": "john", "age": 18 } }
四、常见问题解答(FAQs)
1. 如何在MySQL中增加CDC数据的大小限制?
可以通过修改MySQL配置文件中的max_binlog_size
和max_binlog_files
参数来控制二进制日志的大小和数量,默认情况下,max_binlog_size
参数的值为1GB,max_binlog_files
参数的值为1000,这意味着MySQL最多可以保存1000个大小为1GB的二进制日志文件,如果需要增加CDC数据的大小限制,可以增加这两个参数的值,需要注意的是,增加日志文件数量会增加磁盘空间的使用,可能会对系统性能产生影响,还可以使用第三方CDC工具,这些工具通常具有更高级的功能,可以根据需求灵活调整CDC数据的大小限制。
2. MySQL CDC与其他ETL工具的区别是什么?
传统的ETL(Extract, Transform, Load)工具主要用于批量数据处理,通常会按照固定的调度周期(如每天、每周)从源数据库中抽取数据,进行转换和加载到目标数据库或数据仓库中,这种方式适用于数据量较小、实时性要求不高的场景,而MySQL CDC则专注于实时捕获数据库中的数据变更,并将这些变更实时传输到下游系统进行处理,它能够提供更低延迟、更高效的数据传输方式,适用于需要实时数据同步和处理的场景,CDC工具通常具有更高的灵活性和可扩展性,可以根据实际需求定制开发各种功能模块。
原创文章,作者:未希,如若转载,请注明出处:https://www.kdun.com/ask/1388935.html
本网站发布或转载的文章及图片均来自网络,其原创性以及文中表达的观点和判断不代表本网站。如有问题,请联系客服处理。
发表回复