如果迁移的源实例为PolarDB-X 2.0,您需要在配置具体的迁移任务前,参考本文的注意事项及限制,以保障数据迁移任务的正常运行。

源库为PolarDB-X 2.0的迁移方案概览

根据如下迁移方案,查看迁移任务的注意事项及限制:

PolarDB-X 2.0迁移至RDS MySQL、自建MySQL

具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如迁移对象为表级别,且需进行编辑(如表列名映射),则单次迁移任务仅支持迁移至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的表,分批配置任务,或者调用DTS OpenAPI配置任务。
  • 如需进行增量迁移,Binlog日志:
    • 需开启,并且binlog_format为row、binlog_row_image为full。否则预检查阶段提示报错,且无法成功启动数据迁移任务。
    • 建议在全量迁移期间,Binlog日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的Binlog日志。
      说明 为保障数据安全,DTS本地只会循环存储源库近24小时或者50 GB的Binlog日志,一旦超出该限制,DTS本地将自动清除所缓存的日志。
      警告 过早清理源库的Binlog日志,可能会导致迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的Binlog日志,DTS将无法获取到24小时前的Binlog日志,可能会导致迁移任务失败。
  • 源库的操作限制:
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 迁移期间如需切换PolarDB-X 2.0 的网络类型,切换成功后,请提交工单调整迁移链路的网络连接信息。
    • 如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
  • PolarDB-X 2.0的存储类型需为RDS MySQL(即私有定制RDS),暂不支持为PolarDB MySQL。
其他限制
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
特殊情况 当目标库为RDS MySQL时

DTS会自动在RDS MySQL中创建数据库,如果待迁移的数据库名称不符合RDS MySQL的定义规范,您需要在配置迁移任务之前在RDS MySQL中创建数据库。相关操作,请参见创建数据库

PolarDB-X 2.0迁移至PolarDB MySQL

具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如迁移对象为表级别,且需进行编辑(如表列名映射),则单次迁移任务仅支持迁移至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的表,分批配置任务,或者调用DTS OpenAPI配置任务。
  • 如需进行增量迁移,Binlog日志:
    • 需开启,并且binlog_format为row、binlog_row_image为full。否则预检查阶段提示报错,且无法成功启动数据迁移任务。
    • 建议在全量迁移期间,Binlog日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的Binlog日志。
      说明 为保障数据安全,DTS本地只会循环存储源库近24小时或者50 GB的Binlog日志,一旦超出该限制,DTS本地将自动清除所缓存的日志。
      警告 过早清理源库的Binlog日志,可能会导致迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的Binlog日志,DTS将无法获取到24小时前的Binlog日志,可能会导致迁移任务失败。
  • 源库的操作限制:
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 迁移期间如需切换PolarDB-X 2.0 的网络类型,切换成功后,请提交工单调整迁移链路的网络连接信息。
    • 如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
  • PolarDB-X 2.0的存储类型需为RDS MySQL(即私有定制RDS),暂不支持为PolarDB MySQL。
其他限制
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
特殊情况 当目标库为PolarDB MySQL时

DTS会自动在PolarDB MySQL中创建数据库,如果待迁移的数据库名称不符合PolarDB MySQL的定义规范,您需要在配置迁移任务之前在PolarDB MySQL中创建数据库。相关操作,请参见管理数据库

PolarDB-X 2.0间的迁移

具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如迁移对象为表级别,且需进行编辑(如表列名映射),则单次迁移任务仅支持迁移至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的表,分批配置任务,或者调用DTS OpenAPI配置任务。
  • 如需进行增量迁移,Binlog日志:
    • 需开启,并且binlog_format为row、binlog_row_image为full。否则预检查阶段提示报错,且无法成功启动数据迁移任务。
    • 建议在全量迁移期间,Binlog日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的Binlog日志。
      说明 为保障数据安全,DTS本地只会循环存储源库近24小时或者50 GB的Binlog日志,一旦超出该限制,DTS本地将自动清除所缓存的日志。
      警告 过早清理源库的Binlog日志,可能会导致迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的Binlog日志,DTS将无法获取到24小时前的Binlog日志,可能会导致迁移任务失败。
  • 源库的操作限制:
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 迁移期间如需切换PolarDB-X 2.0 的网络类型,切换成功后,请提交工单调整迁移链路的网络连接信息。
    • 如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
  • PolarDB-X 2.0的存储类型需为RDS MySQL(即私有定制RDS),暂不支持为PolarDB MySQL。
其他限制
  • 目标实例PolarDB-X 2.0的存储类型需为RDS MySQL(即私有定制RDS),暂不支持为PolarDB MySQL。
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。

PolarDB-X 2.0迁移至云原生数据仓库AnalyticDB MySQL 3.0

具体注意事项及限制如下:
类型 说明
源库限制
  • 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
  • 待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
  • 如迁移对象为表级别,且需进行编辑(如表列名映射),则单次迁移任务仅支持迁移至多1000张表。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的表,分批配置任务,或者调用DTS OpenAPI配置任务。
  • 如需进行增量迁移,Binlog日志:
    • 需开启,并且binlog_format为row、binlog_row_image为full。否则预检查阶段提示报错,且无法成功启动数据迁移任务。
    • 建议在全量迁移期间,Binlog日志至少保留7天以上。或者等到全量迁移完成后,再清理DTS任务运行后源库产生的Binlog日志。
      说明 为保障数据安全,DTS本地只会循环存储源库近24小时或者50 GB的Binlog日志,一旦超出该限制,DTS本地将自动清除所缓存的日志。
      警告 过早清理源库的Binlog日志,可能会导致迁移任务失败。例如源库的全量迁移数据较多,目标库写入异常等原因,导致全量迁移耗时超过24小时。在该情况下,过早清理源库的Binlog日志,DTS将无法获取到24小时前的Binlog日志,可能会导致迁移任务失败。
  • 源库的操作限制:
    • 在库表结构迁移和全量迁移阶段,请勿执行库或表结构变更的DDL操作,否则数据迁移任务会失败。
    • 迁移期间如需切换PolarDB-X 2.0 的网络类型,切换成功后,请提交工单调整迁移链路的网络连接信息。
    • 如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。
  • PolarDB-X 2.0的存储类型需为RDS MySQL(即私有定制RDS),暂不支持为PolarDB MySQL。
其他限制
  • 暂不支持迁移前缀索引,如果源库存在前缀索引可能导致数据迁移失败。
  • 由于云原生数据仓库AnalyticDB MySQL版 3.0本身的使用限制,当云原生数据仓库AnalyticDB MySQL版 3.0中的节点磁盘空间使用量超过80%,会导致DTS任务异常,产生延迟。请提前根据待迁移的对象预估所需空间,确保目标集群具备充足的存储空间。
  • 执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
  • 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。
  • DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者将DTS访问目标实例账号的写权限用revoke命令回收掉。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。