独享数据集成资源组

数据集成任务高并发执行且无法错峰运行的情况下,需要专有的计算资源组来保障数据快速、稳定的传输时,建议您选择使用DataWorks的独享数据集成资源组。本文为您概要介绍独享数据集成资源组。功能介绍 独享数据集成资源组的功能亮点如下:...

DataWorks资源组概述

任务同一个执行阶段可选择不同类型的资源组,例如,离线任务调度可选择包年包月独享调度资源组,或按量付费公共调度资源组,数据集成离线任务执行可选择包年包月独享数据集成资源组,关于资源组选择详情请参见 资源组选择。DataWorks的公共...

通用参考:切换资源组

说明 实时同步任务暂不支持在运维中心修改数据集成资源组,请在数据集成控制台或数据开发控制台修改,具体请参见 数据集成页面、数据开发页面。在左侧导航栏单击 周期任务运维>周期任务。节点类型 筛选条件设置为 离线同步,然后选中需要...

数据集成

数据集成是阿里对外提供的可跨异构数据存储系统的、可靠、安全、低成本、可弹性扩展的数据同步平台,为20多种数据源提供不同网络环境下的离线(全量/增量)数据进出通道。您可以通过 数据集成(Data Integration)向云数据库RDS进行数据的...

数据集成

数据集成是阿里对外提供的可跨异构数据存储系统的、可靠、安全、低成本、可弹性扩展的数据同步平台,为20多种数据源提供不同网络环境下的离线(全量/增量)数据进出通道。您可以通过 数据集成(Data Integration)向云数据库RDS进行数据的...

使用数据集成迁移数据到AnalyticDB MySQL 2.0

数据集成是阿里集团对外提供的稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间数据高速稳定的数据移动及同步能力。支持的数据源类型 数据集成提供丰富的数据源支持,如下所示:文本存储(FTP/SFTP/OSS/...

DeleteDISyncTask

调用DeleteDISyncTask接口,删除数据集成同步任务。当前仅支持使用该接口删除实时数据同步任务。如果您希望删除离线数据同步任务,请使用DeleteFile接口,具体操作流程请参考 删除同步任务。调试 您可以在OpenAPI Explorer中直接运行该接口...

通过DataWorks导入数据

前提条件 已购买合适规格的独享数据集成资源组。详情请参见:新增和使用独享数据集成资源组。已完成数据集成资源组与数据源的网络连通。详情请参见:配置资源组与网络连通。已完成数据源环境准备。您可以基于您需要进行的同步配置,在同步...

公共数据集成(调试)资源组:按量计费

公共数据集成(调试)资源组是DataWorks提供的公共资源组的一种,计费方式为按量计费。本文为您介绍公共数据集成(调试)资源组的按量计费详情。背景信息 所有阿里云DataWorks用户共享使用公共数据集成(调试)资源组资源,使用高峰期可能...

UpdateDISyncTask

调用UpdateDISyncTask更新数据集成同步任务。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ...

通过DataWorks导入数据

前提条件 已购买合适规格的独享数据集成资源组。详情请参见:新增和使用独享数据集成资源组。已完成数据集成资源组与数据源的网络连通。详情请参见:配置资源组与网络连通。操作步骤 配置同步的源端数据库读插件。具体操作,请参见 Kafka ...

更多数据同步方案

数据集成是阿里对外提供的可跨异构数据存储系统的、可靠、安全、低成本、可弹性扩展的数据同步平台,为20多种数据源提供不同网络环境下的离线(全量/增量)数据进出通道。您可以通过 数据集成(Data Integration)向云数据库RDS进行数据的...

文档修订记录

管理控制台功能概览 2023.7.18 新增功能 数据集成 为您介绍如何LogHub(SLS)实时ETL同步至Hologres任务 LogHub(SLS)实时ETL同步至Hologres 2023.7.16 新增功能 数据建模 为您提供由派生指标通过运算规则进行计算而形成的复合指标,帮助...

CreateDISyncTask

调用CreateDISyncTask创建数据集成同步任务。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ...

通过DataWorks导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

GenerateDISyncTaskConfigForUpdating

DataWorks目前仅支持直接使用 UpdateDISyncTask 接口更新数据集成离线同步任务,而数据集成实时同步任务和解决方案同步任务则需要先调用GenerateDISyncTaskConfigForUpdating和 QueryDISyncTaskConfigProcessResult 接口,异步生成更新数据...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

使用公共资源组

开通DataWorks时,DataWorks自动为您提供公共资源组(包括公共调度资源组、公共数据集成(调试)资源组、公共数据服务资源组),可用于数据开发、运行测试等操作。公共资源组被多个租户共享,高峰期租户间可能会存在抢占资源的情况。本文为...

通过DataWorks导入数据

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

通用参考:按量付费转包年包月

任务类型 所用资源组 资源组介绍及计费说明 调度任务 公共调度资源组 使用公共资源组 公共调度资源组计费说明:按量付费 数据集成任务 公共数据集成(调试)资源组 使用公共资源组 公共数据集成(调试)资源组:按量计费 调用数据服务API ...

ETL工具支持概览

阿里云的数据集成服务(Data Integration):阿里云提供的ETL工具。在数据集成服务中,将 AnalyticDB PostgreSQL版 配置为一个PostgreSQL数据库,即可实现其他数据源(RDS、MaxCompute、TableStore等)到 AnalyticDB PostgreSQL版 的数据...

等待资源

数据集成任务等待数据集成资源。计算任务等待引擎计算资源。产生原因 资源组下可用资源是有限的,如果有任务长时间执行未释放资源必定会阻塞其他任务执行,关于任务下发机制,详情请参见:DataWorks资源组概述。解决措施 您可进入 运维中心...

第三方认证文件管理

登录 DataWorks控制台,单击左侧导航栏的 数据集成,在下拉框中选择对应工作空间后单击 进入数据集成。在左侧导航栏,单击 配置选项>认证文件管理。单击 认证文件管理 页面右上方的 上传认证文件。在 上传认证文件 对话框,单击 上传文件 ...

StopDISyncInstance

TaskType String 是 DI_REALTIME 停止数据集成同步任务的任务类型。目前仅支持使用DI_REALTIME类型。DI_REALTIME代表实时任务。RegionId String 是 cn-zhangjiakou 地域信息,通常为服务所在的地域。例如,华东2(上海)为cn-shanghai,...

创建数据

说明 若您使用的是极简模式的控制台,请单击控制台左上角的 图标,选择 全部功能>集成与开发(DTS)>数据集成>离线集成。单击目标数据流,进入数据流详情页面。配置数据输入节点。说明 数据流的第一个节点必须是 数据输入,为数据流提供...

独享资源组模式

独享数据集成资源组 独享数据集成资源组创建成功后,您需要在配置数据集成任务时修改任务运行资源。在 资源组列表>独享资源组 页面,单击相应资源后的 修改归属工作空间,绑定独享数据集成资源组归属的工作空间。在数据集成任务的编辑页面...

数据集成调度策略说明

DTS的数据集成功能可根据调度策略的配置,定期地将源库中的结构和存量数据迁移至目标库中。通过该功能可以帮助您构建更加灵活的数据仓库(例如构建T+1的周期性数仓),本文介绍数据集成的策略、限制及适用场景。支持的数据库 支持全量数据...

场景:调度参数在数据集成的典型应用场景

调度参数可以同于数据集成任务配置的各个阶段。本文为您介绍调度参数的典型应用场景。背景信息 DataWorks数据集成结合调度参数使用,可实现以下场景:场景 说明 相关文档 增量数据同步 部分Reader插件可通过调度参数实现每次调度只同步指定...

查看历史信息

进入数据 集成 页面。在Dataphin首页,单击 研发,进入数据 开发 页面。在数据 开发 页面,单击项目名称后的 图标,选择数据开发的项目空间(Dev 或 Basic 项目)。如果您当前访问的是 Dev 或 Basic 项目,且项目空间为您的数据开发空间,...

UpdateDIProjectConfig

调用UpdateDIProjectConfig修改当前工作空间中数据集成同步解决方案任务默认的全局配置。当前DataWorks仅支持为同步解决方案任务中的实时同步DDL消息处理策略设置默认的全局配置。如果您的同步解决方案任务包含实时同步任务,则配置 DDL...

查看历史信息

进入数据 集成 页面。在Dataphin首页,单击 研发,进入数据 开发 页面。在数据 开发 页面,单击项目名称后的 图标,选择数据开发的项目空间(Dev 或 Basic 项目)。如果您当前访问的是 Dev 或 Basic 项目,且项目空间为您的数据开发空间,...

同阿里云主账号访问

在进行数据同步前,您需要确保用于执行同步任务的独享数据集成资源组与您将要同步的数据来源端与目的端数据源的网络连通性。本文为您介绍数据源与DataWorks工作空间同阿里云主账号时如何进行网络连通。背景信息 网络连通方案选择取决于数据...

附录:预设角色权限列表(空间级)

不同预设角色对DataWorks各空间级功能的操作权限详情请参见下文的:数据管理 发布管理 按钮控制 代码开发 函数开发 节点类型控制 资源管理 工作流开发 数据集成 数据建模 数据分析 此外,空间级预设角色对MaxCompute引擎数据也具有一定的...

概述

本文为您介绍如何通过Tunnel、DataHub、LogHub以及DataWorks数据集成将日志数据迁移至MaxCompute。方案 说明 适用场景 Tunnel 通过MaxCompute的Tunnel功能,将日志数据上传至MaxCompute。详情请参见 通过Tunnel迁移日志数据至MaxCompute。...

Oracle数据导入

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

数据库实时导入DataHub

为了更加方便让数据库数据实时导入到DataHub,联合数据集成一起开发了“数据库实时导入到DataHub”,尽量简化数据流入DataHub的流程。整体流程如下:使用图解 主账号使用方式:打开公有云DataHub Console,选择对应的Project,点击右上角的...

ListDIProjectConfig

调用ListDIProjectConfig查看当前工作空间中数据集成同步解决方案任务默认的全局配置。当前DataWorks仅支持为同步解决方案任务中的实时同步DDL消息处理策略设置默认的全局配置。如果您的同步解决方案任务包含实时同步任务,则配置 DDL消息...

MaxCompute作业概述

MaxCompute中数据开发作业主要存在以下三种类型:周期性调度作业、数据集成作业、数据分析作业。典型场景 创建作业:创建ODPS SQL节点、数据传输作业:数据集成、数据分析作业。查看作业运行信息:使用Logview查看作业运行信息、在...

公网流量计费说明

数据集成任务运行在公共资源组和独享资源时,在数据传输过程中如果产生了公网流量,会按量收取公网流量费用。本文为您介绍数据集成公网流量计费详情。流量费用产生原则 若DataWorks上的数据源配置了公网地址,则基于该数据源配置的任务执行...

添加白名单

如果您用独享数据集成资源组同步同阿里云账号,同Region下的VPC环境数据库,您购买添加独享数据集成资源组后,还需完成网络配置和工作空间绑定,操作详情可参见 新增和使用独享数据集成资源组。如果您已完成网络连通配置,但资源组仍然无法...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据管理 数字证书管理服务(原SSL证书) 数据库备份 DBS 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用