PolarDB是阿里巴巴自主研发的下一代关系型分布式云原生数据库,可完全兼容MySQL,具备简单易用、高性能、高可靠、高可用等优势。通过数据传输服务DTS(Data Transmission Service),可以帮助您将自建MySQL数据库迁移至PolarDB MySQL。

前提条件

注意事项

  • DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
  • 如果源数据库没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
  • 对于数据类型为FLOAT或DOUBLE的列,DTS会通过ROUND(COLUMN,PRECISION)来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。
  • 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标集群前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标集群的数据。

迁移类型介绍

支持结构迁移、全量数据迁移和增量数据迁移,详细介绍请参见名词解释
说明 同时使用这三种迁移类型可实现在应用不停服的情况下,平滑地完成数据库迁移。

费用说明

迁移类型 链路配置费用 公网流量费用
结构迁移和全量数据迁移 不收费。 通过公网将数据迁移出阿里云时将收费,详情请参见产品定价
增量数据迁移 收费,详情请参见产品定价

增量数据迁移阶段支持同步的SQL操作

操作类型 SQL操作语句
DML INSERT、UPDATE、DELETE、REPLACE
DDL
  • ALTER TABLE、ALTER VIEW
  • CREATE FUNCTION、CREATE INDEX、CREATE PROCEDURE、CREATE TABLE、CREATE VIEW
  • DROP INDEX、DROP TABLE
  • RENAME TABLE
  • TRUNCATE TABLE

数据库账号的权限要求

数据库 结构/全量迁移 增量迁移
自建MySQL数据库 SELECT权限 REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW和SELECT权限
PolarDB集群 读写权限 读写权限

数据库账号创建及授权方法:

准备工作

为自建MySQL创建账号并设置binlog

操作步骤

  1. 登录数据传输控制台
  2. 在左侧导航栏,单击数据迁移
  3. 迁移任务列表页面顶部,选择迁移的目标集群所属地域。
    选择地域
  4. 单击页面右上角的创建迁移任务
  5. 配置迁移任务的源库和目标库连接信息。
    源库及目标库配置
    类别 配置 说明
    任务名称 DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
    源库信息 实例类型 根据源库的部署位置进行选择,本文以有公网IP的自建数据库为例介绍配置流程。
    说明 当自建数据库为其他实例类型时,您还需要执行相应的准备工作,详情请参见准备工作概览
    实例地区 当实例类型选择为有公网IP的自建数据库时,实例地区无需设置。
    说明 如果您的自建MySQL数据库具有白名单安全设置,您需要在实例地区配置项后,单击获取DTS IP段来获取到DTS服务器的IP地址,并将获取到的IP地址加入自建MySQL数据库的白名单安全设置中。
    数据库类型 选择MySQL
    主机名或IP地址 填入自建MySQL数据库的访问地址,本案例中填入公网地址。
    端口 填入自建MySQL数据库的服务端口,默认为3306
    数据库账号 填入自建MySQL的数据库账号,权限要求请参见数据库账号的权限要求
    数据库密码 填入该账号对应的密码。
    说明 源库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的信息是否正确。如果填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的源库信息。
    目标实例信息 实例类型 选择PolarDB
    实例地区 选择目标PolarDB集群所属的地域。
    PolarDB实例ID 选择目标PolarDB集群ID。
    数据库账号 填入目标PolarDB集群的数据库账号,权限要求请参见数据库账号的权限要求
    数据库密码 填入该账号对应的密码。
    说明 目标库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的信息是否正确。如果填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的目标库信息。
  6. 配置完成后,单击页面右下角的授权白名单并进入下一步
    说明 此步骤会将DTS服务器的IP地址自动添加到目标PolarDB MySQL的白名单中,用于保障DTS服务器能够正常连接目标集群。
  7. 选择迁移类型和迁移对象。
    选择迁移对象和类型
    配置 说明
    迁移类型
    • 如果只需要进行全量迁移,则同时选中结构迁移全量数据迁移
    • 如果需要进行不停机迁移,则同时选中结构迁移全量数据迁移增量数据迁移
    注意 如果未选中增量数据迁移,为保障数据一致性,全量数据迁移期间请勿在源库中写入新的数据。
    迁移对象

    迁移对象框中单击待迁移的对象,然后单击向右小箭头图标将其移动至已选择对象框。

    注意
    • 迁移对象选择的粒度为库、表、列。
    • 默认情况下,迁移对象在目标库中的名称与源库保持一致。如果您需要改变迁移对象在目标库中的名称,需要使用对象名映射功能,详情请参见库表列映射
    • 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
    映射名称更改 如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射
    源、目标库无法连接重试时间 当源、目标库无法连接时,DTS默认重试720分钟(即12小时),您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。
    说明 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
    源表DMS_ONLINE_DDL过程中是否复制临时表到目标库 如源库使用数据管理DMS(Data Management Service)执行Online DDL变更,您可以选择是否迁移Online DDL变更产生的临时表数据。
    • :迁移Online DDL变更产生的临时表数据。
      说明 Online DDL变更产生的临时表数据过大,可能会导致迁移任务延迟。
    • :不迁移Online DDL变更产生的临时表数据,只迁移源库的原始DDL数据。
      说明 该方案会导致目标库锁表。
  8. 上述配置完成后,单击页面右下角的预检查并启动
    说明
    • 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
    • 如果预检查失败,单击具体检查项后的提示,查看失败详情。
      • 您可以根据提示修复后重新进行预检查。
      • 如无需修复告警检测项,您也可以选择确认屏蔽忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
  9. 预检查通过后,单击下一步
  10. 在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款
  11. 单击购买并启动,迁移任务正式开始。
    • 结构迁移+全量数据迁移

      请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。

    • 结构迁移+全量数据迁移+增量数据迁移

      迁移任务不会自动结束,您需要手动结束迁移任务。

      注意 请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。
      1. 观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
      2. 等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。结束增量迁移任务
  12. 将业务切换至PolarDB集群。