列过滤

操作步骤 将数据同步项目配置至 选择同步对象 步骤。详情请参见相应类型的 数据同步 项目文档。选择同步对象和映射方式后,在 选择同步范围 区域右侧的 目标端对象 列表中,鼠标悬停至目标对象,单击显示的 设置。在 设置 对话框的 选择列 ...

出错提示S12数据同步密钥获取出错

本文主要介绍在使用SMC迁移时,迁移任务出错提示“S12_*数据同步密钥获取出错”的问题描述、问题原因及其解决方案。问题描述 在SMC迁移时,迁移任务出错提示“S12_*数据同步密钥获取出错”。其中S12_*可能的错误码如下:S12_U28 S12_U7 S12...

Kafka Partition同步策略说明

在配置同步到Kafka的数据同步作业时,为提升同步的性能,您可以调整Kafka Partition(分区)同步策略,例如根据Hash结果将数据同步至不同的Partition。Hash算法 DTS采用Java默认的hashcode算法来计算Hash值。配置方法 您需要在配置数据同步...

上线实时任务

相关操作 操作 说明 下线实时任务 单个下线:在 实时数据同步 页面,单击目标实时任务 操作 列的 下线,在弹出对话框中单击 确定,可下线实时任务。批量下线:在 实时数据同步 页面,选择需要下线的任务,单击页面左下角 批量下线,可批量...

查看同步任务

DataHub DataConnector是把DataHub服务中的流式数据同步到其他云产品中的功能,目前支持将Topic中的数据实时/准实时同步到MaxCompute(ODPS)、OSS、ElasticSearch、RDS Mysql、ADS、TableStore中。用户只需要向DataHub中写入一次数据,并在...

使用数据传输同步数据

数据同步能够保持源端和目标端的数据一致性,实现关键业务的数据实时流动。本文以同步 OceanBase 数据库的数据至 Kafka 为例,介绍如何使用数据传输同步数据。前提条件 在同步数据之前,您需要确认以下信息:数据传输已具备云资源访问权限...

升级实例配置

升级实例配置的操作,仅适用于数据迁移任务和数据同步作业。数据订阅通道无需升级实例配置。注意事项 实例只能升级配置,不能降级配置。升级生效期间增量数据迁移与数据同步会出现5秒左右的延迟,请在业务低峰期操作。费用说明 包年包月...

更改 Topic

适用场景 创建数据库至消息队列的数据同步项目时,数据传输支持您在选择需要同步的 Topic 类型后,通过 更改 Topic 功能重新选择 Topic 名称。操作步骤 将数据同步项目配置至 选择同步对象 步骤。详情请参见相应类型的 数据同步 项目文档。...

2022年

支持的地域列表 迁移、同步或订阅本地数据库时需添加的IP白名单 2022年5月 类型 重点内容 相关文档 新增 支持Db2 for LUW到 云原生数据仓库 AnalyticDB MySQL 版 3.0的数据同步功能。Db2 for LUW同步至AnalyticDB MySQL版 3.0 新增 支持Db2...

BigQuery数据

BigQuery数据源为您提供读取BigQuery的功能,方便您后续可以通过向导模式和脚本模式配置数据同步任务。本文为您介绍DataWorks的BigQuery数据同步能力支持情况。支持的版本及地域 BigQuery使用的SDK版本是 google-cloud-bigquery 2.29.0,...

数据传输作业:数据集成

MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute,数据集成作业主要有三种类型:离线同步、实时同步、同步解决方案。本文为您介绍MaxCompute数据集成的实现方案。离线同步 离线(批量)的数据通道通过定义数据...

新功能发布记录

2020年6月 新功能/特性 简要概述 类别 文档 支持同步数据到Hologres 支持同步数据到Hologres 数据同步 创建同步Hologres 兼容Kafka 可以使用原生Kafka客户端将数据写入DataHub 开发指南 兼容Kafka Canal插件 使用canal将MySql的增量数据...

批量新增离线数据同步任务

数据同步支持离线同步任务的批量创建,并支持一键启动多个上云任务,实现全量任务自动建表。本文以同步MySQL数据源到MaxCompute目标端为例,介绍如何批量新增离线数据同步任务。前提条件 已存在对应数据源,具体操作,请参见 新建数据源。...

批量新增离线数据同步任务

数据同步支持离线同步任务的批量创建,并支持一键启动多个上云任务,实现全量任务自动建表。本文以同步MySQL数据源到MaxCompute目标端为例,介绍如何批量新增离线数据同步任务。前提条件 已存在对应数据源,具体操作,请参见 新建数据源。...

AD数据同步到钉钉

IDaaS 可以全面打通 AD 到钉钉的身份数据同步链路:当 AD 的用户/组织数据有变动时,自动变更钉钉通讯录数据。通过该能力,企业可以将 AD 作为传统的身份管控来源,并自动地向钉钉以及其他下游应用同步身份数据,实现“一处修改,处处生效...

新增同步对象

DTS支持在数据同步的过程中新增同步对象,无需重新配置同步任务,以在降低对业务影响的情况下变更同步对象。本文将介绍新增同步对象的操作流程。重要 本文为旧版控制台的操作流程,若您使用的是新版控制台,操作流程请参见 修改同步对象。...

修改告警

数据传输支持修改已启动告警监控功能的数据迁移和数据同步项目的告警监控设置。本文以数据迁移项目为例,为您介绍如何修改告警监控。操作步骤 登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据迁移。如果您需要设置数据同步...

数据上云场景

数据库数据同步 数据库的数据同步到MaxCompute需要根据数据库的类型和同步策略来选择相应的工具。离线批量的数据库数据同步:可以选择DataWorks,支持的数据库种类丰富,包括MySQL、SQL Server、PostgreSQL等,详情请参见 通过向导模式配置...

实时同步能力说明

DataWorks为您提供的实时数据同步功能,方便您使用单表或整库同步方式,将源端数据库中部分或全部表的数据变化实时同步至目标数据库中,实现目标库实时保持和源库的数据对应。使用限制 实时同步不支持在数据开发界面运行任务,您需要保存、...

数据集成:全领域数据汇聚

DataWorks的数据集成功能模块是稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动及同步能力。功能概述 DataWorks数据集成支持离线同步、实时同步,以及离线和实时一体化的全增量同步...

数据上传下载成本优化

合理利用ECS的公共下载资源 如果您的ECS使用包月资源,可以使用Tunnel等数据同步工具,将MaxCompute数据同步到ECS,然后下载到本地。详情请参见 导出SQL的运行结果。Tunnel文件上传优化 小文件会消耗更多计算资源,建议当文件量积累较大时...

同步时源库为PolarDB MySQL版的注意事项及限制

如果同步的源集群为 PolarDB MySQL版,您需要在配置具体的同步任务前,参考本文的注意事项及限制,以保障数据同步任务的正常运行。源实例为PolarDB MySQL版的同步方案概览 根据如下同步方案,查看同步任务的注意事项及限制:说明 DTS默认...

常见问题

数据同步过程中如果源实例中的数据库名、表名或者列名中含有划线(-)会报错吗?由于ADB中不允许数据库名、表名或者列名中含有划线(-),为保证数据同步成功,系统会将中划线(-)映射为下划线(_)。如果在数据同步过程中遇到其他因数据...

创建MySQL to MaxCompute离线同步周期任务

在左侧导航栏,单击 图标,将鼠标悬停在 离线数据同步 上,单击 图标。在 离线数据同步 页面,单击 新增任务。在 离线数据同步 管理 页面,配置离线同步周期任务。填写基本信息,任务名称“信用卡客户数据上云_d”。在 源端配置 区域,选择...

单向同步升级至双向同步

前提条件 数据同步任务的源和目标数据库实例为支持双向同步的数据库类型和版本。例如,源和目标数据库均为8.0版本的 MySQL。更多信息,请参见 同步方案概览。数据同步任务的同步拓扑为 单向同步。数据同步任务的状态为 运行中。费用说明 如...

新建 Oracle 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 Oracle 数据源。操作步骤 登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据源管理。在 数据源列表 页面,单击右上角的 新建数据源。在 ...

创建云ClickHouse分析实例

背景信息 云ClickHouse分析实例会自动通过MaterializedMySQL引擎将RDS MySQL实例中的数据同步到 云数据库ClickHouse 中,利用其强大的分析性能解决多维聚合实时分析问题。说明 关于MaterializeMySQL引擎,请参见 MaterializeMySQL引擎。...

DeleteDISyncTask

当前仅支持使用该接口删除实时数据同步任务。如果您希望删除离线数据同步任务,请使用DeleteFile接口,具体操作流程请参考 删除同步任务。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI ...

新建数据

数据同步前,需要准备好数据源作为数据源端或目标端。您可以通过新建数据源,供数据同步时使用。本文介绍如何新建数据源。背景信息 数据同步支持关系型数据库、文件、消息队列等类型数据源的配置。操作步骤 登录 数据资源平台控制台。在...

SQL 条件过滤数据

本文为您介绍创建数据迁移或数据同步项目时,选择迁移或同步对象后通过 SQL 条件过滤数据的适用场景、使用限制和操作步骤。适用场景 创建数据迁移或数据同步项目时,您可以设置 SQL 过滤条件来过滤数据。完成设置后,只有满足过滤条件的...

独享数据集成资源组

例如,增量与全量数据同步,单表及分库分表数据同步。详情请参见 离线同步能力说明。支持实时数据同步。例如,单表实时数据同步、整库实时数据同步。详情请参见 实时同步能力说明。提供一系列同步解决方案。例如,整库离线数据同步,单表或...

新建数据

数据同步前,需要准备好数据源作为数据源端或目标端。您可以通过新建数据源,供数据同步时使用。本文介绍如何新建数据源。背景信息 数据同步支持关系型数据库、文件、消息队列等类型数据源的配置。操作步骤 登录企业数据智能平台。在页面...

数据同步

数据同步为用户提供批量、实时多源异构数据的便捷同步或接入能力,系统提供完善的数据接入配置、任务运行监控等功能,有效保障数据接入的稳定性和可控性,满足各类平台、数据源及应用系统间的数据汇聚需求。前提条件 已根据快速入门教程...

离线同步数据质量排查

背景信息 讲述数据集成数据同步的原理机制,理解数据同步的过程,进而对数据同步的执行效果有判断能力,判断数据同步效果具体包括:数据同步的数据量、目标端数据实际数量等。同步原理 DataWorks数据集成的同步任务在执行时称之为一个Job,...

概览

AnalyticDB PostgreSQL版 提供多种数据迁移方案,可满足不同的数据同步或迁移的业务需求,您可以在不影响业务的情况下,平滑地与各种类型的数据库实例进行迁移或数据同步。迁移数据到AnalyticDB PostgreSQL版 迁移类型 文档 简介 是否支持...

StarRocks数据

StarRocks数据源为您提供读取和写入StarRocks的双向通道,本文为您介绍DataWorks的StarRocks数据同步的能力支持情况。支持的版本 支持EMR Serverless StarRocks 2.5和3.1版本。支持EMR on ECS:StarRocks 2.1版本。详情请参见:StarRocks...

查看和修改同步对象

本文为您介绍如何在数据传输中查看和修改已配置的数据同步项目的同步对象。背景信息 数据同步项目在同步过程中,满足限制条件的情况下,您可以增加或减少同步对象。每一次运行的修改行为都会被记录。当增加对象任务执行完成后,会与关联的...

出错提示S3磁盘分区数据同步出错

本文主要介绍在使用SMC迁移时,迁移任务出错提示“S3磁盘分区数据同步出错”的问题描述、问题原因及其解决方案。问题描述 在SMC迁移时,迁移任务出错提示“S3_*磁盘分区数据同步出错”。其中S3_*可能的错误码如下:S3_F30 S3_F32 S3_F6 S3_...

设置告警

数据传输支持对数据迁移和数据同步项目进行监控项的配置。项目创建完成后,您可以对单个项目设置告警监控,也可以选择多个项目进行批量操作。本文以数据迁移项目为例,为您介绍如何设置告警监控。背景信息 告警监控功能是数据传输重要的运...

Amazon Redshift数据

Amazon Redshift数据源为您提供读取和写入Amazon Redshift的双向通道,方便您后续可以通过向导模式和脚本模式配置数据同步任务。本文为您介绍Amazon Redshift数据同步能力支持情况。支持的Amazon Redshift版本 Amazon Redshift使用的驱动...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云服务器 ECS 数据传输服务 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用