不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据库MySQL的数据迁移至阿里云数据库RDS中。整库迁移 适用于将本地数据中心或在ECS上自建的数据库,同步数据至离线数仓...
注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...
本文汇总了 PolarDB-X 1.0 支持的数据迁移或同步的方案。说明 下表中√表示支持,×表示不支持。方案 数据量 全量迁移 增量迁移 DTS:PolarDB-X 1.0间同步 PolarDB-X 1.0同步至RDS MySQL PolarDB-X 1.0同步至PolarDB MySQL 说明 仅基于RDS ...
多可用区部署 备份恢复 Lindorm宽表引擎支持数据备份恢复功能,基于数据生态服务中的数据迁移将数据存储至OSS中,定期全量备份数据,实时增量同步数据,来满足对数据备份和数据恢复的需求。备份恢复 产品生态 功能集 功能 功能描述 参考...
调用CreateMigrationJob购买一个数据迁移实例。说明 此接口为旧版API,建议您使用新版API 购买DTS实例。请确保在使用该接口前,已充分了解云数据库DTS产品的收费方式和 价格。购买完成后,还需要调用 ConfigureMigrationJob 接口配置迁移...
本文介绍如何通过集群间的数据迁移升级内核大版本。前提条件 源集群和目标集群均为社区兼容版集群。源集群和目标集群已具备数据库账号和密码。源集群和目标集群的副本需一致。源集群和目标集群需在同一地域,且使用相同的VPC。源集群和目标...
数据迁移原理 Hive数据迁移原理 Hive数据迁移包含通过Hive UDTF迁移数据到MaxCompute、通过OSS迁移Hive数据到MaxCompute,本文为您介绍两种数据迁移方式的原理。通过Hive UDTF迁移数据到MaxCompute。该场景通过Hive的分布式能⼒,实现Hive...
2023-12-25 RDS MySQL迁移至云数据库SelectDB版 PolarDB MySQL版迁移至云数据库SelectDB版 RDS MySQL同步至云数据库SelectDB版 PolarDB MySQL版同步至云数据库SelectDB版 支持转换计费方式 新增 云数据库 SelectDB 版 实例支持按量付费转包...
取值如下:数据迁移 数据订阅 数据同步 选择实例 选择目标DTS实例。单击 确定。DTS实例在专属集群与公共集群间迁移时的规格转换如下表所示。专属集群中的规格 公共集群中的规格 1DU micro 2DU small 3DU medium 4DU large 5DU xlarge 6DU 2...
存储类型 是否涉及跨机迁移 影响因素 补充说明 本地盘存储 是 全量数据大小 全量数据的大小会影响数据迁移的时长,同时迁移的速度受备份速度、网络带宽的影响。Redo Log大小 当Redo Log较大时,会导致实际备份数据量超出预估。此情况下,...
存储类型 是否涉及跨机迁移 影响因素 补充说明 本地盘存储 是 全量数据大小 全量数据的大小会影响数据迁移的时长,同时迁移的速度受备份速度、网络带宽的影响。Redo Log大小 当Redo Log较大时,会导致实际备份数据量超出预估。此情况下,...
数据迁移 支持时间序列数据库TSDB全量迁移至Lindorm时序引擎,具体操作,请参见 TSDB全量迁移至时序引擎。使用Prometheus的应用开发步骤 时序引擎支持remote write和remote read接口作为远端存储,并提供原生PromQL查询能力,具体操作,请...
等待系统迁移成功后,单击 查看大屏 即可进入迁移到新版数据大屏的编辑页。或单击我的可视化页面右上角的 进入新版,查看迁移后的大屏。说明 您也可以单击 编辑 进入可视化应用编辑页,单击页面右上角的 迁移新版 完成迁移。
本文主要介绍您在配置新版在线迁移的数据地址或迁移任务时可能会遇到的错误码及解决方案。错误码 错误说明 处理方案 InvalidArgument 请求的参数不合法。您的请求中有无效的参数,请使用正确的参数创建迁移任务。MissingArgument 请求的...
在 云数据库 MongoDB 版 分片集群实例增删Shard节点、数据迁移等场景下,您可能需要修改均衡器Balancer的活动窗口期或开启关闭均衡器Balancer。本文介绍如何管理均衡器Balancer。功能简介 均衡器Balancer用于均衡分片集群实例中各Shard节点...
MaxCompute提供多种渠道,以便您从业务系统或外部数据源写入数据到MaxCompute,或者从MaxCompute写出数据到外部系统或外部数据源。数据传输渠道 SDK-Tunnel渠道 外表(湖仓一体)JDBC渠道 场景数据写入MaxCompute 离线数据批量写入(数据...
社区版Redis集群版通常会涉及到数据节点弹性扩缩容、分片间的数据迁移等需求,但业界常见的扩缩容方案仍存在一些问题,例如按Key迁移速度慢、不支持多Key命令、Lua脚本无法迁移、大Key迁移出现卡顿甚至引发高可用切换、迁移失败回滚复杂等...
社区版Redis集群版通常会涉及到数据节点弹性扩缩容、分片间的数据迁移等需求,但业界常见的扩缩容方案仍存在一些问题,例如按Key迁移速度慢、不支持多Key命令、Lua脚本无法迁移、大Key迁移出现卡顿甚至引发高可用切换、迁移失败回滚复杂等...
使用限制 部分实例规格族群不支持跨可用区更改实例规格,具体如下:异构计算 弹性裸金属服务器 超级计算集群 通用算力型实例规格族u1 x86计算 大数据型 本地SSD型 安全增强型 关于实例规格族的详细信息,请参见 实例规格族。目前仅支持同...
如果目标RDS MySQL的规格较低(CPU核数低于2核)且待迁移的数据量较大时,建议您关闭RDS MySQL实例的慢日志以提升数据迁移的性能。前提条件 RDS MySQL实例的数据库版本为5.6、5.7或8.0。背景信息 DTS在将数据迁移至目标RDS MySQL时,会在...
说明 如需跨大版本迁移,例如从PostgreSQL 10迁移至RDS PostgreSQL 13,需要先参考本文档完成一键上云,再通过 升级数据库大版本 将RDS PostgreSQL 10升级至RDS PostgreSQL 13。实例需要为主实例,只读实例不支持一键上云。实例的存储类型...
如果迁移的源数据库类型为自建Oracle,您需要在配置具体的迁移任务前,参考本文的注意事项及限制,以保障数据迁移任务的正常运行。源库为Oracle的迁移方案概览 根据如下迁移方案,查看迁移任务的注意事项及限制:自建Oracle迁移至PolarDB ...
DataWorks迁移助手支持将开源调度引擎的作业迁移至DataWorks,支持作业跨云、跨Region、跨账号迁移,实现DataWorks作业快速克隆部署,同时DataWorks团队联合大数据专家服务团队,上线迁云服务,帮助您快速实现数据与任务的上云。...
如需实现不停机迁移,您需要在配置数据迁移任务时,同时选择结构迁移、全量数据迁移和增量数据迁移。增量数据迁移 在增量数据迁移阶段,DTS会将源库产生的增量数据实时同步至目标库。此功能通常用于实现不停机迁移,即迁移在全量数据迁移...
本文介绍如何使用RDS PostgreSQL一键上云功能,将公网PostgreSQL数据库或其他云厂商的PostgreSQL实例迁移至RDS。背景 RDS PostgreSQL基于用户VPC的网络构建,一键上云功能默认支持通过内网将其他数据库迁移到RDS PostgreSQL,如需将公网上...
删除或迁移无需备份的数据 该操作需要您在全量备份执行前就将无需备份的数据删除或迁移,执行全量数据备份时就不会备份已删除或迁移的数据。关闭增量备份 关闭增量备份功能后,将不再产生增量备份数据,历史数据量待到期后系统自动清除。...
当您使用DTS传输Oracle的数据,或者将数据转储到Oracle数据库时,需要了解DTS支持的能力、功能限制和接入DTS的准备工作,以便您平稳地完成数据同步或迁移。数据库限制 自建 Oracle为源 限制项 说明 支持的版本 支持10g、11g、12c、18c、19c...
功能介绍 多数据源类型接入:Dataphin内置丰富的数据源类型,支持对接的数据源包括大数据存储型数据源、文件型数据源、消息队列型数据源、关系型数据源和NoSQL数据源。更多信息,请参见 Dataphin支持的数据源。自定义数据源类型:在内置的...
数据迁移任务可以帮助您快速地实现各种数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景。本文以 RDS MySQL 迁移至 RDS MySQL 为例为您介绍配置数据迁移任务的流程。前提条件 已创建DTS专属...
数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入任意目标端,适配各类业务场景,例如缓存更新、业务异步解耦、异构数据源数据实时同步及含复杂ETL的多种业务场景。本文将介绍在DTS专属...
本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...
本文介绍如何使用数据传输服务DTS(Data Transmission Service),将ECS上的单节点或副本集架构的自建MongoDB数据迁移至阿里云MongoDB实例中。通过DTS的增量迁移功能,可以实现在应用不停服的情况下,平滑完成数据库的迁移。本文为旧版DTS...
跨地域迁移支持服务 面向云上用户提供阿里云公有云、金融云中国区域同一账号跨地域的DataWorks调度作业和MaxCompute数据迁移方案支持服务。(仅限公共云)AI算法专家服务 AI算法建模咨询 针对用户提供算法架构方案,数据梳理和建模方案规划...
DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移。如自建Oracle为RAC结构,且需接入阿里云VPC,为保证DTS任务...
本文介绍通过DataWorks的数据集成功能,实现OpenTSDB到TSDB的数据迁移。背景 DataWorks是阿里云重要的PaaS平台产品,提供数据集成、数据开发、数据服务、数据分析、数据治理等全方位的产品服务,一站式开发管理的界面,帮助企业专注于数据...
HBase增强版支持从阿里云RDS,MySQL,不同HBase版本(含阿里云HBase和自建HBase集群)导入数据,并进行实时的增量同步,也支持将数据迁移到不同版本的HBase中。数据的导入和迁移,都是基于LTS服务实现。RDS增量数据同步 通过BDS数据同步...
需求背景 某保险公司(中国前三)核心及业务系统迁移是当前保险业机构最大规模的数据库国产化改造项目。该公司依托云计算技术和互联网技术构建了分层清晰的数字化平台,推动技术架构和技术标准的统一,实现系统间整合和内通外联,同时,...
数据库小版本 如果您的数据库小版本过期或者不在维护列表内,当执行实例版本升级、数据迁移、变更实例配置或数据恢复等操作时,为保证提供更出色的性能和稳定性,系统会默认将您的数据库小版本升级至最新版。数据库连接 云数据库MongoDB...
借助数据传输服务DTS(Data Transmission Service),云数据库Redis版 提供了多种数据迁移方案,包括自建Redis数据库迁移上云、云数据库Redis版 实例间的数据迁移、其他云Redis数据迁移到阿里云等,满足多种业务场景下Redis数据迁移的需求...
DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在本地应用不停服的情况下,平滑地完成Oracle数据库的数据迁移。前提条件 自建Oracle数据库的版本为9i、10g、11g、12c、18c或19c版本。自建Oracle数据库已...