git clone https://github.com/michael-liumh/binlog2sql.git && \
cd binlog2sql && \
pip3 install -r requirements.txt
git与pip的安装问题请自行搜索解决。
- 添加日志模块
- 修改requirement.txt文件
- 修改 mysql-replication 版本为 0.23
- 添加对 json 数据类型的支持
- 关闭 flashback 模式临时文件的输出(测试发现从临时文件读取数据,部分二进制数据会被截断,从而导致输出异常,替代方案是直接print结果到终端)
- 新增一个对结果文件的排序脚本
- sort_dml.sh
- 修改连接mysql实例使用的默认字符集为 utf8mb4
- 添加对 blob 数据类型的支持(包括 binary、varbinary 等二进制类型)
- 添加 binlog file 的解析支持
- 添加 binlog file dir,可指定解析某个目录下特定的几个 binlog file
- --check 检查选择的文件是否正确
- --file-dir 选择目录
- --file-regex 正则匹配 binlog file
- --start-file 选择目录中起始的 binlog file
- --stop-file 选择目录中终止的 binlog file
- 添加忽略特定库、表、列的支持,方便解析后直接在另一个实例上执行
- 添加将 insert into 语句替换成 replace into 和 insert ignore into 语句的支持,方便解析后直接在另一个实例上执行
- 添加 update、delete 语句根据主键进行更新的支持,方便解析后直接在另一个实例上执行
- 添加将 binlogfile2sql 解析结果保存到特定文件、目录的支持,方便另一个应用直接读取这个目录下 SQL 文件来执行
- 添加 binlogfile2sql 只解析修改时间在指定分钟数前的支持,防止解析到未写入完成的 binlog,方便解析后直接在另一个实例上执行
- 添加对结果 SQL 中的库名进行重命名的支持,方便解析后直接在另一个实例上执行
- 添加去除注释的支持,方便解析后直接在另一个实例上执行
- 添加 binlogfile2sql 忽略虚拟列的支持
- 添加支持根据 GTID 过滤
参数 | 说明 |
---|---|
--help | 输出帮助信息 |
-h, --host | 连接 MySQL 服务器的地址 |
-P, --port | 连接 MySQL 服务器的端口 |
-u, --user | 连接 MySQL 服务器的用户 |
-p, --password | 连接 MySQL 服务器的密码(不指定这个参数也可以,默认会要求通过终端交互的形式输入密码,空密码直接回车即可) |
-d, --databases | 选择输出指定库的 SQL |
-t, --tables | 选择输出指定表的 SQL |
-id, --ignore-databases | 排除输出指定库的 SQL |
-it, --ignore-tables | 排除数据指定表的 SQL |
-ic, --ignore-columns | 过滤掉 SQL 中的指定的列 |
--ignore-virtual-columns | 过滤掉 SQL 中的虚拟列 |
--start-position, --start-pos | 指定 binlog 的起始位点 |
--stop-position, --stop-pos | 指定 binlog 的结束位点 |
--start-datetime | 解析 binlog 中指定开始时间后的 SQL |
--stop-datetime | 解析 binlog 中指定结束时间前的 SQL |
--include-gtids | 只输出指定 gtid 的 SQL |
--exclude-gtids | 不输出被排除 gtid 的 SQL |
--only-dml | 只输出 DML 类型的 SQL(排除DDL) |
--sql-type | 只输出指定类型的 DML(但不排除DDL,要排除DDL的话需要加上 --only-dml 参数) |
--stop-never | 持续不间断解析从运行脚本这个时间点开始,往后新增的 binlog 内容 |
-K, --no-primary-key | 排除 SQL 中的主键字段 |
-KK, --only-primary-key | UPDATE 与 DELETE 类型的 SQL 的条件只保留主键字段 |
-B, --flashback | 生成回滚 SQL 而不生成 binlog 记录中的 SQL |
--replace | 将 INSERT 类型的 SQL 中的 INSERT INTO 关键字改为 REPLACE INTO |
--insert-ignore | 将 INSERT 类型的 SQL 中的 INSERT INTO 关键字改为 INSERT IGNORE INTO |
--result-file | 将生成的结果保存到指定的文件中(请直接指定文件名,不要添加目录,添加了也会自动去除,请用 --result-dir 指定目录) |
--record-file | 当使用 --stop-never 参数时,自动记录解析过的 binlog 文件(仅对解析 binlog 文件生效) |
--result-dir | 指定生成结果文件的报存目录 |
--table-per-file | 当使用 --stop-never 参数解析本地 binlog 时,输出的结果将按《库名.表名.日期.sql》的格式保存到对应的文件中 |
--date-prefix | 当使用 --table-per-file 参数解析本地 binlog 时,输出的结果将按《日期.库名.表名.sql》的格式保存到对应的文件中 |
-ma, --minutes-ago | 当解析本地 binlog 时,只解析最后修改时间在 n 分钟前的文件(可用这个参数排除还没记录完的 binlog,不想排除的话,直接参数值为 0 即可) |
--need-comment | 选择输出的 SQL 是否需要保留注释,注释内容包括这条 SQL 在 binlog 中的起始位点、结束位点、gtid值,值为 1 表示保留(默认),0 表示不保留 |
--rename-db | 选择将输出的 SQL 的库名统一改成指定的库名(方便将多个库同一个表的 SQL 整合到一个库中进行后续的分析) |
--remove-not-update-col | 排除 UPDATE 语句中未被更新的字段(默认输出完整的更新前后的值) |
-f, --file-path | 解析指定的本地 binlog 文件 |
-fd, --file-dir | 解析指定目录下的所有本地 binlog 文件(可用下面的参数过滤) |
-fr, --file-regex | 使用正则表达式指定选择的目录下的 binlog 文件 |
--start-file | 通过字符串比较的方式,指定选择的目录下的起始的 binlog 文件 |
--stop-file | 通过字符串比较的方式,指定选择的目录下的结束的 binlog 文件 |
--check | 检查指定目录下被过滤的 binlog 文件是否符合预期 |
--supervisor | 用 supervisor 管理后台解析进程 |
--update-to-replace | 将 UPDATE 语句转化成 REPLACE INTO 语句 |
- 仅测试了mysql 5.7、python 3.8.5
- 添加对 json 数据类型的支持
- 添加对 blob 数据类型的支持(包括 binary、varbinary 等二进制类型)
- 直接解析指定目录下binlog文件(可指定binlog目录前缀,排除非binlog文件)
- 修复 binlogfile2sql json 数据解析处理的SQL执行不了的 bug
- 修复 binlogfile2sql start-position 参数不生效的 bug
- 添加 GTID 支持