配置SQLServer数据

说明(推荐)资源组列表默认仅显示独享数据集成资源组,为确保数据同步的稳定性和性能要求,推荐使用独享数据集成资源组。如果您需要测试公共资源组或自定义资源组的连通性,请在资源组列表右下方,单击 更多选项,在 警告 对话框单击 确定...

大屏管理

大屏是数据管理DMS提供的两种可视化应用类型之一,提供自由布局和自定义样式能力,通过可视化组件和一系列内置辅助图形来打造视觉呈现丰富的可视化大屏。大屏的定位与仪表盘不一样,仪表盘倾向于快速打造可视化报表,而大屏通常被广泛用于...

更多数据同步方案

数据集成是阿里对外提供的可跨异构数据存储系统的、可靠、安全、低成本、可弹性扩展的数据同步平台,为20多种数据源提供不同网络环境下的离线(全量/增量)数据进出通道。您可以通过 数据集成(Data Integration)向云数据库RDS进行数据的...

数据集成概述

数据集成是基于Dataphin构建的简单高效的数据同步平台,致力于提供具有强大的数据预处理能力、丰富的异构数据源之间数据高速稳定的同步能力。背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量...

MongoDB数据

可以通过赋值节点将字段处理为目标数据类型,再传入数据集成进行数据同步。例如,当MongoDB存储的增量字段为时间戳,您可以通过赋值节点将时间类型字段通过引擎函数转换为时间戳,再传给离线同步任务使用,关于赋值节点的使用详情请参见...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

通用参考:切换资源组

登录 DataWorks控制台,切换至目标地域,单击左侧导航栏的 数据集成,在下拉框中选择对应工作空间单击 进入数据集成。在左侧导航栏,单击 同步任务,然后在任务列表中,找到目标同步任务,并单击右侧 操作 列的 更多>修改配置,在任务...

Windows系统的ECS实例ping外网地址提示“一般故障”...

本文介绍Windows系统的ECS实例ping外网地址提示“一般故障”的错误原因和解决方案。问题现象 Windows系统的ECS实例ping外网地址时提示“一般故障”错误。问题原因 出现该问题可能有以下原因:可能原因 排查方案 ECS实例中安装了第三方杀毒...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

数据集成概述

数据集成是稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动及同步能力。使用限制 数据同步:支持且仅支持结构化(例如RDS、DRDS等)、半结构化、无结构化(OSS、TXT等,要求具体同步...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

详细功能介绍

测试通过,会显示数据过滤结果。如下图所示,左侧弹窗的上下两部分,分别展示了数据经过过滤器之前和之后的返回结果。重要 过滤器调试功能可确保过滤代码的正确性,但不适用于数据量过大的情况。数据源和过滤器报错 数据源报错:在资产...

场景:配置增量数据离线同步任务

非时间类型增量字段同步:可以通过赋值节点将字段处理为目标数据类型,再传入数据集成进行数据同步。关于赋值节点的使用详情请参见:赋值节点。场景示例 同步历史数据:如果您需要将历史增量数据同步至目标表对应时间分区,您可以使用运...

任务运行诊断

例如,4C8G独享数据集成资源组最大支持8个并发数同时执行,若当前存在3个并发数为3的任务,其中2个任务同时执行,则机器剩余的并发数为2,此时另一个并发数为3的任务将由于资源组剩余资源不足,导致当前任务进入等待状态,日志显示 wait。...

ETL工具支持概览

阿里云的数据集成服务(Data Integration):阿里云提供的ETL工具。在数据集成服务中,将 AnalyticDB PostgreSQL版 配置为一个PostgreSQL数据库,即可实现其他数据源(RDS、MaxCompute、TableStore等)到 AnalyticDB PostgreSQL版 的数据...

RDS SQL Server异地容灾

RDS SQL Server提供了异地容灾方案,可以将源实例的业务数据自动同步至容灾实例中,当源实例所在地域的RDS实例发生故障时,可手动切换系统到容灾地域的RDS实例上,从而保障业务的连续性和可用性。前提条件 已在地域A和地域B分别创建了RDS ...

集成与开发概览

DMS的数据集成与开发功能模块,针对数据全生命周期的集成、开发、服务三个阶段提供界面化的功能支持。功能简介 数据集成与开发功能模块支持多种计算、存储引擎,支持结构化、半结构化、非结构化数据的实时集成、离线集成、开发、服务,能够...

步骤七:故障切换

故障切换类型 数据同步切换 该故障切换会先停止保护组中被保护的实例,并且等到所有被保护的实例停止再进行最后一轮数据同步,等待数据同步完成再启动切换。这样可以保证容灾端与生产端数据完全一致,无数据丢失。该切换模式适用于...

步骤七:故障切换

故障切换类型 数据同步切换 该故障切换会先停止保护组中被保护的实例,并且等到所有被保护的实例停止再进行最后一轮数据同步,等待数据同步完成再启动切换。这样可以保证容灾端与生产端数据完全一致,无数据丢失。该切换模式适用于...

独享资源组模式

独享数据集成资源组 独享数据集成资源组创建成功,您需要在配置数据集成任务时修改任务运行资源。在 资源组列表>独享资源组 页面,单击相应资源的 修改归属工作空间,绑定独享数据集成资源组归属的工作空间。在数据集成任务的编辑页面...

步骤七:故障切换

故障切换类型 数据同步切换 该故障切换会先停止保护组中被保护的实例,并且等到所有被保护的实例停止再进行最后一轮数据同步,等待数据同步完成再启动切换。这样可以保证容灾端与生产端数据完全一致,无数据丢失。该切换模式适用于...

数据集成审批策略

数据集成审批策略支持管理员从DataWorks空间级别为数据集成任务的保存操作定义审批策略。本文为您介绍如何创建数据集成审批策略。背景信息 支持管理员按 源端、目的端 数据源的组合来定义需要被审批的数据集成任务,包括:在数据集成或数据...

步骤七:故障切换

故障切换类型 数据同步切换 该故障切换会先停止保护组中被保护的实例,并且等到所有被保护的实例停止再进行最后一轮数据同步,等待数据同步完成再启动切换。这样可以保证容灾端与生产端数据完全一致,无数据丢失。该切换模式适用于...

配置MySQL输入

DataWorks的数据集成实时同步MySQL数据是基于实时订阅MySQL实现的,实时同步MySQL数据目前仅支持配置MySQL数据源为RDS的 5.x 或 8.x 版本的MySQL,如果需要同步DRDS的MySQL,请不要将DRDS的MySQL配置为MySQL数据源,您可以参考 配置DRDS...

上传管道脚本

数据 集成 页面,单击 脚本 的 图标。在 上传创建管道开发脚本 对话框中,配置参数。参数 描述 上传文件 选择您需要上传的管道脚本。管道名称 填写管道名称。管道名称由字母、数字、下划线(_)组合组成。说明 管道名称 不能超过64个...

UpdateDIProjectConfig

调用UpdateDIProjectConfig修改当前工作空间中数据集成同步解决方案任务默认的全局配置。当前DataWorks仅支持为同步解决方案任务中的实时同步DDL消息处理策略设置默认的全局配置。如果您的同步解决方案任务包含实时同步任务,则配置 DDL...

数据集成侧同步任务能力说明

数据集成侧同步任务配置相关能力 支持的能力 说明 刷新表映射 单击 刷新源端与目标端表映射 按钮,下方表格会显示刷新的结果。如上图所示,hudi_b.tb_order_1 为已有表,hudi_b.tb_order_2 和 hudi_b.tb_order_3 为自动建表。查看或...

数据同步概述

背景说明 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单高效、安全可靠的数据同步平台。更多信息,请参见 数据集成概述。重要 因数据同步...

数据同步概述

背景说明 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单高效、安全可靠的数据同步平台。更多信息,请参见 数据集成概述。重要 因数据同步...

DataWorks OpenAPI概述

DataWorks为您提供了涵盖租户、元数据、数据开发、运维中心、数据集成等多个功能模块的OpenAPI接口,不同API的QPS限制、每日调用次数上限和支持使用的DataWorks服务版本存在差异。您可参考本文了解各OpenAPI支持的DataWorks版本及地域、...

Oracle数据导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

场景:调度参数在数据集成的典型应用场景

调度参数可以同于数据集成任务配置的各个阶段。本文为您介绍调度参数的典型应用场景。背景信息 DataWorks数据集成结合调度参数使用,可实现以下场景:场景 说明 相关文档 增量数据同步 部分Reader插件可通过调度参数实现每次调度只同步指定...

MaxCompute作业概述

MaxCompute中数据开发作业主要存在以下三种类型:周期性调度作业、数据集成作业、数据分析作业。典型场景 创建作业:创建ODPS SQL节点、数据传输作业:数据集成、数据分析作业。查看作业运行信息:使用Logview查看作业运行信息、在...

什么是数据管理DMS

数据集成:支持常见数据源的实时、离线数据集成数据集成过程中支持灵活自定义数据的处理逻辑,帮助解决企业数据孤岛的痛点。简单易用:提供覆盖数据全生命周期的数据流转及处理能力。通过提供图形化、向导式的开发模式,智能预警及自主...

将云消息队列 Kafka 版的数据迁移至MaxCompute

由于当前DataWorks的默认资源组无法完美支持Kafka插件,您需要使用独享数据集成资源组完成数据同步。详情请参见 新增和使用独享数据集成资源组。登录 DataWorks控制台。在左侧导航栏,单击 工作空间列表。在目标工作空间所在行,在右侧 ...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

使用限制

如下为各任务节点执行时长限制说明:任务节点类型 任务节点名称 执行时长限制 数据集成 DTS数据迁移 大约14小时。离线数据集成 大约8小时。数据加工 单实例SQL 大约14小时。循环SQL 单个批次SQL大约14小时,整体受任务流执行总时长18小时...

ListDIProjectConfig

调用ListDIProjectConfig查看当前工作空间中数据集成同步解决方案任务默认的全局配置。当前DataWorks仅支持为同步解决方案任务中的实时同步DDL消息处理策略设置默认的全局配置。如果您的同步解决方案任务包含实时同步任务,则配置 DDL消息...

数据导入概览

使用DataWorks数据集成同步数据到GDB DataWorks 是阿里云上的一站式大数据智能云研发平台,其中数据集成服务支持导出数据到GDB,您也可以使用平台完成数据计算、筛选、转换等处理再同步到GDB。DataWorks的GDB数据源底层由GdbWriter插件提供...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用