约束和限制

60000 一个客户端IP一分钟内最多可发起的JDBC连接请求数 10 Presto使用限制 限制 描述 DLA Presto外表数据源支持的阿里云产品列表 OSS RDS Tablestore PolarDB Redis MongoDB AnalyticDB for MySQL DLA Presto异步查询结果写入端 OSS Spark...

同阿里云主账号访问

在进行数据同步前,您需要确保用于执行同步任务的独享数据集成资源组与您将要同步的数据来源端与目的端数据源的网络连通性。本文为您介绍数据源与DataWorks工作空间同阿里云主账号时如何进行网络连通。背景信息 网络连通方案选择取决于数据...

独享数据集成资源组

数据集成任务高并发执行且无法错峰运行的情况下,需要专有的计算资源组来保障数据快速、稳定的传输时,建议您选择使用DataWorks的独享数据集成资源组。本文为您概要介绍独享数据集成资源组。功能介绍 独享数据集成资源组的功能亮点如下:...

配置数据网络

本文主要介绍Serverless Spark如何配置数据网络来访问用户VPC网络中的数据。这些数据包括RDS系列、ADB系列、PolarDB系列、MongoDB、Elasticsearch、HBase、E-MapReduce、Kafka以及用户在ECS上自建的各种数据服务等。背景信息 Serverless ...

通过DataWorks导入

HDFS是一个分布式文件系统,为您提供读取和写入HDFS双向通道的功能,本文为您介绍如何通过DataWorks将HDFS数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或 数仓版(3.0)。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,...

通过DataWorks导入数据

DataWorks提供了可视化的数据导入方式,相对于通过外表导入,DataWorks导入的方式更为轻量化,适合数据量相对较小的数据导入场景。本文介绍如何通过DataWorks将 PolarDB分布式版(原DRDS)的数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或...

MySQL节点

解决方案 重新选择使用连接串模式创建的数据源。您可以参考 配置MySQL数据源 进入 数据源管理 页面,单击目标数据源 操作 列的 编辑,在数据源编辑页面查看创建数据源时所使用的模式。常见问题:测试连通性通过但任务执行报错 可能原因1:...

术语

本文介绍 云原生数据库PolarDB 使用过程中遇到的术语。地域(Region)数据中心所在的地理位置。可用区(Zone)可用区是指在某一地域内,具有独立电力和网络的物理区域。同一可用区内实例之间的网络延时更小。集群(Cluster)PolarDB 采用多...

安全性

网络数据链路 AnalyticDB PostgreSQL版 做为云原生分布式系统拥有非常高的安全性,首先每个新建实例使用专有网络,也称为VPC(Virtual Private Cloud),VPC是一种隔离的网络环境,安全性和性能均高于传统的经典网络。根据使用场景可选择...

DataWorks on EMR Serverless StarRocks最佳实践

DataWorks支持StarRocks数据源,通过数据源对接EMR Serverless StarRocks,可实现EMR Serverless StarRocks的数据集成、开发、分析、数据服务等功能。本文为您介绍EMR Serverless StarRocks在DataWorks上的操作流程。背景信息 了解EMR ...

独享调度资源组

数据源处于VPC网络中,且与独享资源组在 不同 地域 使用高速通道或VPN等将网络连通数据源与独享资源组绑定的VPC网络,并添加一条路由指向目标数据库IP,保障两个网络网络可达。数据源处于IDC网络使用高速通道或VPN等将网络连通数据源...

配置VPC数据

本文介绍在DataV中配置专有网络VPC(Virtual Private Cloud)内数据源的方法。通过专有网络VPC数据源的配置,您可以将专有网络VPC内的数据库接入到DataV中,并作为...配置完成后,您就可以使用该专有网络VPC内的数据库作为组件的数据源了。

源库连接性检查

网络互通问题 经过上述排查后仍然无法通过源库连接性检查,可能是DTS服务器与源数据网络互通问题。您可以 通过钉钉(钉钉通讯客户端下载地址)进入到DTS客户交流钉钉群(群号:68325004196或68640008972),进行咨询。

使用限制

数据库MongoDB版(副本集架构)同步至云数据库MongoDB版(副本集架构或分片集群架构)使用MongoShake实现MongoDB实例间的单向同步 使用MongoShake实现MongoDB实例间的延迟同步 连接实例 云数据库MongoDB支持使用以下方法连接副本集实例。...

ClickHouse整库数据离线同步至Hologres

准备独享数据集成资源组并与数据网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源的网络连通,详情请参见 配置网络连通。如果您的独享数据集成资源组和数据源属于同一地域,可使用同地域VPC内网连通独享资源组和数据...

使用限制

使用数据库MongoDB前,您需要了解不同类型云数据库MongoDB实例本身存在的约束信息,使您初步了解不同类型云数据库MongoDB实例的使用限制,以帮助您选择更适合业务场景的实例。单节点实例 功能 约束 实例部署 目前不是所有地域和可用区...

查询诊断

您也可以根据需求选择按照占用内存、磁盘读取数据量、磁盘读取数据耗时、网络传输数据量、网络传输数据耗时对算子排序以及计算整体比例。算子统计信息介绍如下:名称 说明 算子名称 算子名称与编号,在计划树中唯一。类型ID 算子类型编号。...

创建DMS逻辑库的数据订阅任务

本文介绍如何创建数据管理DMS(Data Management)逻辑库的数据订阅任务。...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费PolarDB-X 1.0订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

配置并管理实时同步任务

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,同步数据至DataHub。本文为您介绍如何创建数据实时同步任务,并在创建完成后查看任务运行情况。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,配置好您需要同步...

功能特性

Datahub数据总线 功能集 功能 功能描述 参考文档 数据接入 API接入 使用REST API方式,将数据写入Datahub API参考 SDK接入 使用SDK将数据传入Datahub Java SDK C++ SDK Go SDK Python SDK 插件接入 使用插件将数据传入Datahub LogStash插件...

Oracle同步至Tablestore

本实践以Oracle作为来源数据源,以Tablestore作为去向数据源,因此您需要在DataWorks的工作空间的 数据源管理 页面新增Oracle数据源和Tablestore数据源,两个数据源支持的数据同步能力请参见 Oracle数据源、Tablestore数据源。已购买独享...

配置并管理实时同步任务

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,同步数据至MaxCompute。本文为您介绍如何创建数据实时同步任务,并在创建完成后查看任务运行情况。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,配置好您需要...

创建PolarDB-X 2.0数据订阅任务

本文介绍如何创建 PolarDB分布式版 数据订阅任务。前提条件 已创建 PolarDB分布式版 实例和...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

离线同步任务运维

若您的任务配置为增量同步,且需要同步历史数据至目标表对应分区中,您可以使用数据功能,调度参数将根据补数据配置的业务日期自动替换为具体的值,关于补数据功能使用,请参见 执行补数据并查看补数据实例。任务状态监控 您可以进入 运...

使用DTS创建数据订阅

DTS支持创建自建PosgreSQL、RDS PostgreSQL 数据订阅任务。本文以 RDS PostgreSQL 为例介绍...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

创建RDS MySQL数据订阅任务

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建 RDS MySQL 数据订阅任务。前提条件 已创建源 RDS MySQL 实例,创建方式,请参见 ...

创建PolarDB MySQL版数据订阅任务

通过数据订阅功能,您可以实时订阅增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文介绍如何创建 PolarDB MySQL版 数据订阅任务。前提条件 已创建 PolarDB MySQL版 集群,详情请参见 购买...

配置并管理实时同步任务

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,同步数据至Hologres。本文为您介绍如何创建数据实时同步任务,并在创建完成后查看任务运行情况。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,配置好您需要...

创建RDS PostgreSQL数据订阅任务

DTS支持创建自建PosgreSQL、RDS PostgreSQL 数据订阅任务。本文以 RDS PostgreSQL 为例介绍...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

创建PolarDB-X 1.0数据订阅任务

本文介绍如何创建 PolarDB-X 1.0 数据订阅任务。前提条件 已创建 PolarDB-X 1.0...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费PolarDB-X 1.0订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

配置并管理实时同步任务

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,同步数据至 AnalyticDB for MySQL。本文为您介绍如何创建数据实时同步任务,并在创建完成后查看任务运行情况。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,...

数据源管理常见问题

本文介绍在DataV中连接数据源时,经常遇到的问题及相应的解决方法。DataV小课堂直播视频:数据源管理-常见问题。CSV数据源类问题 如何为组件配置CSV数据源?您可以在DataV控制台单击 我的数据>数据源管理,选择+添加数据,进入 添加数据 ...

数据源管理常见问题

本文介绍在DataV中连接数据源时,经常遇到的问题及相应的解决方法。DataV小课堂直播视频:数据源管理-常见问题。CSV数据源类问题 如何为组件配置CSV数据源?您可以在DataV控制台单击 我的数据>数据源管理,选择+添加数据,进入 添加数据 ...

DataStudio侧实时同步任务配置

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,将多种输入及输出数据源搭配组成同步链路,进行单表或整库数据的实时增量同步。本文为您介绍如何创建单表或整库增量数据实时同步任务,并在创建完成后查看任务运行情况。前提...

Kafka单表实时入湖OSS(HUDI)

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

数据源概述

DataWorks的数据源用于连接不同的数据存储服务。在配置数据集成同步任务之前,您需要首先定义好同步任务的源端和目的端数据源信息,以便在配置同步任务时,能够通过选择数据源名称来确定数据的读取和写入数据库。本文将介绍配置数据源时您...

离线同步任务调优

本文为您介绍影响数据同步速度的因素、如何通过调整同步任务的并发配置来实现同步速度最大化、作业的限速选项,以及数据同步过慢的场景。文档概述 同步速度受同步任务本身配置、数据库、网络等多方面影响,详情请参见:数据同步速度的影响...

概述

随着业务的快速发展,企业数据呈几何倍增长,数据量庞大、复杂、各类数据间标准不一致,往往会出现数据难以管理的现象。DataWorks智能数据建模服务,将无序、杂乱、繁琐、庞大且难以管理的数据,进行结构化有序的管理。使企业中的数据产生...

元数据采集

DataWorks数据地图为您提供 元数据采集 功能,方便您将不同系统中的元数据进行统一汇总管理,您可以在数据地图查看从各数据源汇集而来的元数据信息。本文为您介绍如何创建采集器,将各数据源的元数据信息汇集至DataWorks。前提条件 您需要...

Lindorm实时入湖建仓分析

DLA Lakehouse实时入湖方案利用数据湖技术,重构数仓语义,分析数据数据,实现数仓的应用。本文介绍Lindorm实时入湖建仓分析的操作步骤。方案介绍 DLA Lakehouse的Lindorm实时入湖建仓分析助力企业构建大数据离在线一体化,主要包括三...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用