通过Reindex API迁移自建Elasticsearch数据

数据准备 说明 本文使用的自建ES集群没有历史数据,因此以新导入的geonames数据集作为历史数据,介绍数据迁移步骤。如果您的自建ES集群已存在数据,可跳过该步骤,直接创建目标索引。本文使用 Rally 提供的geonames数据集作为待迁移的数据...

迁移开源HDFS的数据到文件存储 HDFS 版

文件存储 HDFS 版 可以帮助您实现将开源HDFS的数据迁移到云上,并允许您在云上就像在Hadoop分布式文件系统中管理和访问数据。准备工作 开通 文件存储 HDFS 版 服务并创建文件系统实例和挂载点。具体操作,请参见 文件存储HDFS版快速入门。...

业务切换流程

为最大化地减少数据迁移对业务的影响,您可以参照本文的流程执行业务切换并建立回退方案。前提条件 已配置数据迁移任务,且数据迁移任务处于 迁移中 或 已完成 状态,配置案例请参见 迁移方案概览。注意事项 由于执行业务切换操作需要停止...

业务切换流程

为最大化地减少数据迁移对业务的影响,您可以参照本文的流程执行业务切换并建立回退方案。前提条件 已配置数据迁移任务,且数据迁移任务处于 迁移中 或 已完成 状态,配置案例请参见 迁移方案概览。注意事项 由于执行业务切换操作需要停止...

自定义配置 DDL/DML

背景信息 您在配置数据迁移或数据同步项目时,如果在 选择迁移类型 或 选择同步类型 步骤选择了 增量同步,则会默认支持 DML 同步,您可以自定义配置 DML 或 DDL。DML 同步:配置数据迁移或数据同步项目时,您可以对需要同步的 DML SQL ...

设置增量同步位点

本文为您介绍创建数据迁移或数据同步项目时,增量同步位点的使用限制、适用场景和操作步骤。使用限制 您在创建数据迁移或数据同步项目时,迁移/同步类型选择了 增量同步,并且未选择 全量迁移/全量同步,才会支持设置增量同步位点。设置...

计费概述

迁移过程说明 新版在线迁移过程说明 新版在线迁移服务会通过以下步骤完成数据迁移的工作:获取待迁移数据信息:此过程中,在线迁移服务会对比源和目的地址文件的size、ContentType及LastModify等元信息,并根据您当前任务的 覆盖方式,判断...

迁移流程

本文主要介绍闪电立方III设备从创建订单到完成数据迁移并写入闪电立方本地NAS的基本流程,包括从本地机房到阿里云和阿里云到本地机房的数据迁移操作,您可以通过如下流程,实施离线数据迁移工作。本地机房到阿里云流程 如下图所示:本地...

迁移流程

本文主要介绍闪电立方II型设备从创建订单到完成数据迁移并写入闪电立方本地NAS的基本流程,包括从本地机房到阿里云和阿里云到本地机房的数据迁移操作,您可以通过如下流程,实施离线数据迁移工作。本地机房到阿里云流程 如下图所示:本地...

从RDS MariaDB迁移至RDS MySQL

DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成数据库的迁移。前提条件 已创建目标RDS MySQL实例,详情请参见 创建RDS MySQL实例。说明 RDS MySQL实例的存储空间须...

从RDS MariaDB迁移至RDS MySQL

DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成数据库的迁移。前提条件 已创建目标RDS MySQL实例,详情请参见 创建RDS MySQL实例。说明 RDS MySQL实例的存储空间须...

从MaxCompute迁移至RDS MySQL

通过数据传输服务DTS(Data Transmission Service),您可以将MaxCompute的数据迁移至MySQL。前提条件 确保您已完成以下操作:开通MaxCompute 创建项目空间 设置阿里云产品访问MaxCompute白名单 注意事项 DTS在执行全量数据迁移时将占用源...

SQL 条件过滤数据

本文为您介绍创建数据迁移或数据同步项目时,选择迁移或同步对象后通过 SQL 条件过滤数据的适用场景、使用限制和操作步骤。适用场景 创建数据迁移或数据同步项目时,您可以设置 SQL 过滤条件来过滤数据。完成设置后,只有满足过滤条件的...

从自建Oracle迁移至阿里云消息队列Kafka

本文以自建Oracle数据库迁移至阿里云消息队列Kafka实例为例,介绍数据迁移任务的配置流程。前提条件 自建Oracle数据库的版本为9i、10g、11g、12c、18c或19c版本。自建Oracle数据库已开启Supplemental Logging,且要求supplemental_log_data...

通过触发器和函数实现PostgreSQL的DDL增量迁移

在使用DTS执行PostgreSQL数据库间的数据迁移前,可通过本文介绍的方法在源库创建触发器和函数获取源库的DDL信息,然后再由DTS执行数据迁移,在增量数据迁移阶段即可实现DDL操作的增量迁移。前提条件 源库需满足以下要求:如果源库为自建...

使用DTS将腾讯云MongoDB副本集实例全量迁移至阿里云

背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 全量数据迁移 方法,将3.2版本的腾讯云MongoDB副本集实例迁移至阿里云MongoDB实例。前提条件 腾讯云MongoDB副本集实例的数据库版本为3.2版本。说明 ...

使用DTS将腾讯云MongoDB副本集实例全量迁移至阿里云

背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 全量数据迁移 方法,将3.2版本的腾讯云MongoDB副本集实例迁移至阿里云MongoDB实例。前提条件 腾讯云MongoDB副本集实例的数据库版本为3.2版本。说明 ...

从自建PostgreSQL迁移至PolarDB PostgreSQL版

操作步骤一 备份自建数据库 该操作为全量数据迁移。为避免迁移前后数据不一致,迁移操作开始前请停止自建数据库的相关业务,并停止数据写入。在自建PostgreSQL数据库服务器上执行以下命令,备份数据库中的所有角色信息。pg_dumpall-U...

概述

OSS Bucket之间的数据迁移包含以下场景:同账号下的OSS数据迁移,即同一个阿里云账号下相同或者不同地域Bucket之间的数据迁移。具体步骤,请参见 使用数据复制功能迁移同账号下的OSS数据。跨账号下的OSS数据迁移,即不同阿里云账号下相同或...

概述

当数据需要通过专线或VPN迁移上云、自建存储迁移上云时,您可以在Linux(内核2.6及以上版本,64位)操作系统的机器上部署在线迁移服务提供的代理,充分利用已有的机器和VPC,更加安全地进行数据迁移。本文介绍通过代理迁移数据的使用场景和...

查看数据迁移项目的详情

启动数据迁移项目后,您可以在数据迁移项目的详情页面查看相应项目的基本信息、项目执行的进度和状态等信息。进入详情页面 您可以在数据迁移项目的详情页面,查看计划的迁移环节、各个环节的进度和状态,帮助您了解数据库迁移的整体进度,...

PolarDB PostgreSQL版(兼容Oracle)集群间的数据迁移

通过使用数据传输服务DTS(Data Transmission Service),您可以实现 PolarDB PostgreSQL版(兼容Oracle)集群间的数据迁移。前提条件 由于该功能目前仅在华东2(上海)地域支持,要求源和目标 PolarDB PostgreSQL版(兼容Oracle)集群均...

Hive数据导入

云原生数据仓库AnalyticDB MySQL版 湖仓版(3.0)支持通过Hive数据迁移将Hive数据迁移至OSS。本文介绍如何添加Hive数据源,新建Hive迁移链路并启动任务,以及数据迁移后如何进行数据分析和管理数据迁移任务。功能介绍 AnalyticDB MySQL版 ...

PolarDB MySQL版集群间的数据迁移

通过数据传输服务DTS(Data Transmission Service),可以帮助您实现 PolarDB MySQL版 集群间的数据迁移。说明 目前 PolarDB MySQL版 集群暂不支持升级MySQL版本至8.0版本,您可以创建一个新的 PolarDB MySQL版 集群(8.0版本),使用本...

跨阿里云账号迁移PolarDB MySQL版

因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。如果源库没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标库中出现重复数据。对于迁移失败的...

ECS实例自建数据库间迁移

本文以MySQL数据库为例,介绍如何配置DTS迁移任务,实现ECS实例上自建数据库间的数据迁移。前提条件 在目标ECS实例的安全组中放行MySQL监听的端口(默认端口号为3306)。具体操作,请参见 添加安全组规则。分别为源ECS实例和目标ECS实例上...

本地自建数据库迁移到ECS

本文以MySQL数据库为例,介绍如何配置DTS迁移任务,实现从本地自建数据库到ECS实例自建数据库间的数据迁移。前提条件 创建ECS实例。具体操作,请参见 自定义购买实例。在ECS实例的安全组中已放行MySQL监听的端口号(默认端口号为3306)。...

通过实例私网打通将自建Elasticsearch数据迁移至阿里...

步骤六:数据迁移 完成以上步骤后,即完成源实例与目标实例间的网络互通,可以进行数据迁移步骤一:配置支持PrivateLink功能的负载均衡实例 创建负载均衡实例。确保负载均衡实例的地域和后端添加的云服务器ECS的地域相同。详情请参见 ...

通过Logstash迁移自建Elasticsearch数据

步骤二:创建搜索索引 在使用Logstash将Elasticsearch集群数据迁移到Lindorm搜索引擎前,需先在Lindorm中创建用于存储迁移数据的目标索引。重要 Logstash服务不会将源索引的 settings 等信息拷贝到目标索引中,因此,如果您希望目标索引...

迁移

步骤5:数据迁移 当结构迁移通过后,单击 开始数据迁移。开始迁移后,返回迁移任务列表,能够查看任务状态。开始迁移后,任务状态变为 迁移准备中,包括创建表和一些资源的准备。说明 若出现错误提示,或者一直处于该状态下无法开始迁移,...

查看数据迁移进度

数据迁移任务执行的过程中,您通过控制台查看结构迁移、全量数据迁移或增量数据迁移的执行情况和具体进度。前提条件 已启动数据迁移任务。操作步骤 登录 数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在...

将自建ClickHouse数据迁移到云ClickHouse中

步骤二:数据迁移 通过remote函数进行数据迁移(可选)在进行 云数据库ClickHouse 数据迁移时,如果需要考虑网络流量。您可以通过调整network_compression_method参数来选择合适的压缩算法,减少流量的使用。在目标实例 云数据库ClickHouse...

迁移实施

本文介绍数据迁移的注意事项和操作步骤。注意事项 使用在线迁移服务迁移数据时需要注意以下事项:在线迁移服务使用源站存储服务提供商公开的标准接口来访问源数据,其行为依赖于源站存储服务提供商的具体实现。在线迁移会占用源地址和目的...

从RDS PostgreSQL迁移至PolarDB PostgreSQL版

操作步骤一:备份RDS PostgreSQL数据库 该操作为全量数据迁移。为避免迁移前后数据不一致,迁移操作开始前请停止自建数据库的相关业务,并停止数据写入。在ECS上执行以下命令,备份数据库中的数据。pg_dump-U<username>-h<hostname>-p...

迁移实施

本文介绍NAS之间数据迁移的操作步骤和注意事项。注意事项 在线迁移服务使用源站存储服务提供商公开的标准接口来访问源数据,其行为依赖于源站存储服务提供商的具体实现。在线迁移会占用源地址和目的地址的资源,可能会影响业务正常运行。若...

从 Prometheus 到 TSDB 的数据迁移

本文介绍如何使用阿里巴巴的开源工具Datax 实现从 Prometheus 到 TSDB 的数据迁移。背景 本文介绍如何使用阿里巴巴的开源工具Datax 实现从 Prometheus 到 TSDB 的数据迁移。DataX相关使用介绍请参阅 DataX 的 README 文档。下面将首先介绍 ...

通过DataX导入Prometheus数据

本文介绍如何使用阿里巴巴的开源工具Datax实现从Prometheus到TSDB的数据迁移。背景 DataX相关使用介绍请参阅DataX的 README。迁移操作涉及到的两个插件(Prometheus Reader 和 TSDB Writer)。DataX DataX 是阿里巴巴集团内被广泛使用的离...

CDH6数据迁移

本文介绍如何将CDH中本地HDFS的数据迁移到 文件存储 HDFS 版,实现存储计算分离。前提条件 已开通 文件存储 HDFS 版 服务并创建文件系统实例和挂载点。具体操作,请参见 文件存储HDFS版快速入门。已在阿里云上创建ECS实例并安装CDH6集群。...

从 MySQL 到 TSDB 的数据迁移

本文主要介绍如何使用阿里巴巴的开源工具Datax 实现从 MySQL 到 TSDB 的数据迁移。背景 本文主要介绍如何使用阿里巴巴的开源工具Datax 实现从 MySQL 到 TSDB 的数据迁移。DataX相关使用介绍请参阅 DataX 的 README 文档。下面将首先介绍 ...

迁移实施

首次迁移完成后,按照 增量迁移时间间隔 执行增量迁移任务,将源地址从前次迁移任务开始后到下次迁移开始前新增或修改的增量数据迁移至目的地址。如果配置的增量迁移次数是N,则执行1次全量迁移,之后执行N-1次增量迁移。例如:设置迁移...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 闪电立方 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构
新人特惠 爆款特惠 最新活动 免费试用