数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

数据迁移

本文为您介绍如何迁移自建Kudu集群的数据到E-MapReduce上的Hadoop集群。前提条件 您已自建Kudu集群。已创建E-MapReduce的Hadoop集群,并选择了Kudu服务,详情请参见 创建集群。背景信息 EMR Kudu支持社区1.10以及1.11版本,可以使用社区...

使用数据传输迁移数据

您可以通过数据迁移功能实时迁移其他数据源的数据至 OceanBase 数据库,以及迁移 OceanBase 数据库的数据至其他数据源。本文以迁移 MySQL 数据库的数据至 OceanBase 数据库为例,介绍如何使用数据传输迁移数据。前提条件 在迁移数据之前,...

数据迁移概述

数据迁移至OSS 您可以基于实际业务需求将本地、第三方存储设备或者OSS源存储空间(Bucket)内的数据迁移至OSS目标Bucket,具体如下表所示:迁移方式 说明 相关文档 在线迁移 使用在线迁移服务,您可以将第三方数据轻松迁移至阿里云对象...

数据迁移问题

如果您有几十TB或者PB级别海量的数据传输需要上传到阿里云,但本地的网络带宽不够,扩容成本高,您可以选择闪电立方离线数据迁移服务来迁移数据上云。是否支持云上数据迁移到本地机房?支持阿里云OSS数据迁移到本地机房,请通过 工单 联系...

过滤待迁移数据

在配置数据迁移任务的迁移对象时,您可以设置过滤条件,过滤待迁移数据。只有满足过滤条件的数据才会被迁移到目标数据库。该功能可应用于数据的定期迁移、拆分数据表等多种应用场景。功能限制 仅支持过滤当前表的字段,不支持跨表过滤。如...

数据迁移流程

适用于数据库升级、跨实例数据迁移数据库拆分、扩容等业务场景。您可以参考以下流程进行迁移前的准备工作、以及购买、配置和管理数据迁移项目。完成准备工作。数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。您已为源...

迁移数据上云

本文介绍如何使用MirrorMaker将自建Kafka集群的数据迁移到 云消息队列 Kafka 版 集群。前提条件 您已完成以下操作:下载迁移工具MirrorMaker 迁移Topic上云 背景信息 Kafka的镜像特性可实现Kafka集群的数据备份。实现这一特性的工具就是...

Hive数据迁移

创建⽤于迁移数据的Hive UDTF。在MMA的 帮助 ⻚⾯下载对应版本的UDTF的jar包,如 mma-udtf.jar。执行以下命令上传 mma-udtf.jar 至HDFS。hdfs dfs-put-f mma-udtf.jar hdfs:/tmp/使⽤Beeline或Hive命令登录Hive、创建Hive UDTF。DROP ...

使用在线迁移服务迁移数据

使用在线迁移服务,您可以轻松实现文件存储NAS之间的数据迁移。本文介绍如何通过在线迁移服务实现阿里云文件存储NAS之间的数据迁移。使用在线迁移服务,您只需在控制台填写源NAS和目标NAS的地址信息,并创建迁移任务即可。迁移任务启动后,...

数据迁移操作指导

数据迁移流程 通常,使用数据传输服务DTS(Data Transmission Service)执行数据迁移的操作,您需要经历如下步骤。操作流程 说明 1.准备工作概览 在使用DTS迁移数据前,您需要对源或目标数据库做一些准备工作,以满足DTS对环境的要求。2....

数据迁移方案概览

数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移数据库拆分扩容等业务场景。本文将介绍数据迁移功能支持的数据库、版本和迁移类型,以及具体的配置文档。收费策略 DTS数据迁移涉及...

MaxCompute数据迁移

本文为您介绍MaxCompute数据迁移的准备事项和操作步骤。准备事项 同Region项目迁移。要求有能够同时访问源项目和⽬的项目的账号,该账号对源项目和⽬的项目有List、建表,读写表权限。EMR+DLF+OSS迁移MaxCompute。需要先构建MaxCompute的湖...

查看数据迁移进度

数据迁移任务执行的过程中,您通过控制台查看结构迁移、全量数据迁移或增量数据迁移的执行情况和具体进度。前提条件 已启动数据迁移任务。操作步骤 登录 数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在...

使用ossimport迁移数据

ossimport支持将任意地域的本地存储数据、第三方存储数据、对象存储OSS数据迁移至任意地域的OSS中。本文介绍如何使用ossimport将数据从第三方存储迁移到OSS。背景信息 某用户的数据存储于腾讯云COS广州(华南)区域,数据大小约500TB。现...

结束数据迁移任务

对于需要停止或迁移失败(不再需要)的任务,您可以结束数据迁移任务,避免源数据库的数据覆盖写入至目标数据库中。前提条件 数据迁移任务处于 迁移中、已暂停、迁移失败 状态。影响 结束数据迁移任务后,数据迁移任务将处于 已完成 状态,...

从OSS迁移数据

本章节介绍如何将对象存储OSS上的数据迁移到文件引擎。准备工作 开通文件引擎,详情请参见 开通指南。搭建Hadoop集群。建议您使用的Hadoop版本不低于2.7.3,本文档中使用的Hadoop版本为Apache Hadoop 2.7.3,修改Hadoop 配置信息,详情参见...

配置数据迁移任务

数据迁移任务可以帮助您快速地实现各种数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移数据库拆分扩容等业务场景。本文以 RDS MySQL 迁移至 RDS MySQL 为例为您介绍配置数据迁移任务的流程。前提条件 已创建DTS专属...

数据迁移服务协议

由于阿里云Elasticsearch集群本身的特性、数据节点的特性、网络传输的不确定性,数据迁移过程可能会受到集群健康状态、节点存储情况等多方面因素影响。迁移不成功(集群健康状态不佳、迁移过程中断或出现类似后果的情形)可能会导致源数据...

数据迁移方案概览

RDS提供了多种数据迁移方案,可满足不同上云或迁云的业务需求,使您可以在不影响业务的情况下将数据在其他数据库与阿里云云数据库RDS之间平滑迁移。使用场景 相关操作 将自建数据库迁移到云数据库 使用DTS将自建PostgreSQL迁移到RDS ...

购买数据迁移项目

本文为您介绍如何购买云数据库 OceanBase 数据传输服务提供的数据迁移项目。背景信息 目前数据迁移项目仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。您可以根据本文操作购买相应类型的数据迁移项目后...

CDH6数据迁移

本文介绍如何将CDH中本地HDFS的数据迁移到 文件存储 HDFS 版,实现存储计算分离。前提条件 已开通 文件存储 HDFS 版 服务并创建文件系统实例和挂载点。具体操作,请参见 文件存储HDFS版快速入门。已在阿里云上创建ECS实例并安装CDH6集群。...

数据迁移方案概览

数据迁移 使用场景 文档链接 从RDS迁移至 PolarDB 一键升级RDS MySQL至PolarDB MySQL版(平滑迁移,推荐)一键克隆RDS MySQL至PolarDB MySQL版 PolarDB 间的数据迁移 PolarDB MySQL间迁移 从其它数据库迁移至 PolarDB 自建MySQL迁移至...

数据迁移方案概览

HybridDB for MySQL提供了多种数据迁移方案,可满足不同的上云或迁云的业务需求,使您可以在不影响业务的情况下平滑地在其他数据库和HybridDB for MySQL之间进行数据迁移。HybridDB for MySQL支持的数据迁移应用场景及操作如下:操作 适用...

使用rsync工具迁移数据

本文介绍如何使用rsync工具实现阿里云文件存储NAS NFS协议文件系统之间的数据迁移。前提条件 已拥有一个存有数据的NFS协议文件系统,并且拥有一个专有网络类型挂载点。费用说明 NAS与NAS之间的迁移,会涉及如下费用:使用ECS作为数据传输的...

迁移数据至阿里云NAS

配置数据传输中转节点后,您还要使用迁移工具迁移数据至阿里云文件存储NAS。本文介绍如何通过迁移工具将非阿里云的数据迁移至文件存储NAS。前提条件 已配置数据传输中转节点ECS实例。具体操作,请参见 配置数据传输中转节点。使用SFTP客户...

数据迁移期间如果源数据库出现数据变化,迁移数据会...

如果配置的任务迁移类型选择了结构迁移+全量数据迁移+增量数据迁移,那么迁移期间源数据库出现的数据变化,都会被DTS同步到目标实例。

使用Robocopy工具迁移数据

本文介绍如何使用robocopy工具实现阿里云文件存储NAS SMB协议文件系统之间的数据迁移。前提条件 拥有一个存有数据的SMB协议文件系统,并且拥有一个专有网络类型挂载点。背景信息 Robocopy是Windows系统自带的目录复制命令,该功能可以创建...

数据迁移与同步FAQ

什么是数据迁移数据同步?DTS的数据迁移与数据同步工作原理是什么?DTS的数据迁移与数据同步有什么区别?使用DTS遇到预检查报错,如何解决?什么是数据迁移数据同步?数据迁移:将Redis数据库中的数据(即键值对)迁移至另一个Redis...

数据迁移常见计费问题

DTS数据迁移只对增量迁移的正常运行时间计费,结构迁移及全量数据迁移免费。当数据迁移任务处于未配置、未启动、结构迁移中、全量迁移中、失败及完成状态不计费。数据迁移按照增量数据迁移的正常运行时间计费,不同规格单价参考 产品定价。

从自建HDFS迁移数据

背景介绍 在某些场景下面,我们需要从自建的Hadoop中存储的数据迁移到Lindorm的文件引擎当中。适用范围 阿里云ECS自建Hadoop集群中的数据迁移到文件引擎。准备工作 开通文件引擎,详情请参见 开通指南。修改Hadoop 配置信息,详情请参见 ...

配置DTS数据迁移节点

DTS数据迁移节点可以实现跨库、全量、单表或整库的数据迁移,迁移的类型包括数据和结构。本文介绍配置DTS数据迁移节点的方法。背景信息 DTS数据迁移节点基于数据传输服务DTS,赋予任务流基于DTS进行数据传输的能力。更多信息,请参见 数据...

需要数据迁移怎么办?

数据迁移上阿里云有以下两种方式:企业可以通过阿里云提供内置工具与帮助文档,自己完成 IT 环境迁移工作,即:自助服务。企业还可以通过阿里云的合作伙伴,通过合作伙伴提供技术支持,帮助企业完成 IT 环境迁移工作,即:合作伙伴支持。...

数据迁移链路规格说明

本文介绍数据迁移各链路规格的说明及性能测试情况。注意事项 本文中提供的性能指标仅用于提供参考的测试数据,并不作为产品SLA的评判标准。使用DTS可实现数据秒级增量迁移到目标实例,但受限于源实例的运行负载、传输网络的带宽、网络延时...

使用mysqldump迁移数据

请参见 使用mysqldump迁移MySQL数据

Redis数据迁移方案概览

借助数据传输服务DTS(Data Transmission Service),云数据库Redis版 提供了多种数据迁移方案,包括自建Redis数据库迁移上云、云数据库Redis版 实例间的数据迁移、其他云Redis数据迁移到阿里云等,满足多种业务场景下Redis数据迁移的需求...

为什么DTS迁移数据前后的数据大小不一样

DTS迁移数据分为全量迁移和增量迁移两个步骤,这两个步骤均属于逻辑同步,类似于mongodump和mongorestore。全量迁移和增量迁移的迁移流程如下:全量迁移:DTS会扫描源端每个表的全部记录,然后批量插入到目标端,理论上每个表单线程并发...

RDS实例间数据迁移

说明 目标RDS实例和源RDS实例可以不同也可以相同,即您可以使用DTS实现两个RDS实例间的数据迁移或同一RDS实例内的数据迁移数据库名称 填入RDS PostgreSQL实例中待迁入数据的目标数据库名,可以和源实例中待迁移的数据库名不同。说明 当...

Hive数据迁移至MaxCompute

本文档主要介绍结合CMH与MMA如何完成数据从Hive到MaxCompute的数据迁移流程。整体步骤 Hive资源对象发现 通过部署CMH的调研工具hive-scanner,进行Hive迁移对象的探索及资源导入,详见 Hive 资源发现。集群构建 您可以在云迁移中心(CMH)...

基于 DataX 完成数据访问代理数据迁移

数据访问代理(Open Database Proxy,简称 ODP)通过集成 DataX,支持全量离线静态的数据迁移功能。DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现各种异构数据源之间高效的数据同步。目前,支持的源端数据源类型依赖于 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 闪电立方 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用