HTTP API 概览

默认数据交换是通过 JSON。所有返回的结果都使用标准的 HTTP 响应代码,并使用特定的格式返回错误。下表列出了 TSDB 提供的与数据读写和管理相关的所有 API。关于如何使用每个 API 的具体说明,请点击描述中提供的链接查看相应文档。API ...

新增和使用独享数据集成资源组

您可以使用DataWorks独享数据集成资源组功能,为数据集成同步任务分配独立的计算资源,从而提高任务的执行效率和稳定性。购买独享资源组后,在实际使用前您还需进行网络绑定、白名单等配置操作。本文为您介绍从购买至使用独享数据集成资源...

新增和使用独享调度资源组

选择已经与目标数据库网络联通的交换机,若没有可用交换机,可单击 创建交换机 为独享资源组创建交换机。创建完成后这里配置为创建的交换机。安全组 安全组指定了独享资源实例需要允许或禁止哪些公网或内网的访问。您可根据业务需求选择已...

DLA Presto CU版本快速入门

本文主要教您如何快速上手阿里云云原生数据湖分析DLA Presto CU版本。操作步骤 创建虚拟集群 与Serverless Presto扫描版不同,在CU版本下执行SQL前,必须要创建一个虚拟集群。具体请参见 虚拟集群管理。说明 创建虚拟集群时,选项 引擎 ...

独享资源组

添加独享资源组白名单 如果您使用独享数据集成资源组走VPC内网同步数据,请在数据库白名单列表中添加独享数据集成资源组绑定的交换机网段。获取独享绑定的交换机网段信息如下:在 DataWorks控制台 的 资源组列表 页面 独享资源组 页签下,...

异构数据源访问

若您需要通过 AnalyticDB PostgreSQL版 访问外部异构数据源(HDFS、Hive和JDBC)时,可以使用异构数据源访问功能将外部数据转换为 AnalyticDB PostgreSQL版 数据库优化后的格式进行查询和分析。功能说明 外部数据源管理提供高性能的结构化...

C100售前支持相关问题

数据库审计和其他产品的区别 数据库审计产品相对于自己安装Packetbeat抓取流量审计和RDS数据库自带的SQL洞察功能,有以下区别:支持的数据库协议:数据库审计产品是专注于数据库协议解析的,支持的数据库协议更丰富,解析的粒度更细。数据...

访问外部数据

说明 对于数据源绑定场景,如果多个数据源共用一个VPC下的交换机,打通其中一个数据源意味着相同交换机下的所有数据源一并打通。因此,只能打通同一Region下的数据源。在Databricks数据洞察控制台,进入集群详情页面。点击详情页面 数据源 ...

网络类型

注意事项 若当前数据库所属地域没有创建专有网络和交换机,请前往 专有网络管理控制台 创建专有网络和交换机。详情,请参见 搭建IPv4专有网络 中的步骤一创建专有网络和交换机。新建VPC后,数据库访问方式属于混访模式,即经典网络和VPC...

消除数据重分布

AnalyticDB PostgreSQL属于MPP数据库,数据分布在各个segment节点,分布方式为hash、random和replication。许多查询在执行中需要进行数据交换,比如redistribution和broadcast。数据交换所导致的费用在整个查询执行时间中所占比例比较可观,...

创建RDS MySQL数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建RDS MySQL数据订阅通道。注意事项 由于使用gh-ost或pt-online-schema-change等类似...

配置资源组与网络连通

数据同步任务配置前,您需要确保用于执行同步任务的独享数据集成资源组与您将要同步的数据来源端与目的端数据库的网络连通性,您可以根据数据库所在网络环境,选择合适的网络解决方案来实现网络连通。本文为您介绍数据库在不同网络环境中...

迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle...

本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...

配置订阅任务(新控制台)

数据传输服务DTS(Data Transmission Service)提供的数据订阅功能简单易用,您只需在控制台上进行简单操作,即可完成数据订阅任务的配置。注意事项 本文仅简单介绍数据订阅任务的通用配置流程,不同的数据源在配置数据订阅任务时略有不同...

创建Oracle数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文为您介绍如何创建Oracle数据订阅通道。前提条件 自建Oracle数据库的版本为9i、10g、11g版本,且不...

创建RDS MySQL数据订阅任务

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建 RDS MySQL 数据订阅任务。前提条件 已创建源 RDS MySQL 实例,创建方式,请参见 ...

创建DMS逻辑库的数据订阅任务

本文介绍如何创建数据管理DMS(Data Management)逻辑库的数据订阅任务。前提条件 已配置数据管理DMS逻辑库,具体操作请参见 逻辑库。说明 数据管理DMS逻辑库需基于多个PolarDB MySQL实例的分库建立。注意事项 类型 说明 源库限制 待订阅的...

创建PolarDB-X 2.0数据订阅任务

本文介绍如何创建 PolarDB分布式版 数据订阅任务。前提条件 已创建 PolarDB分布式版 实例和数据库,具体操作请参见 创建实例 和 创建数据库。说明 PolarDB分布式版 中的数据库须基于RDS MySQL创建,DTS暂不支持基于 PolarDB MySQL版 创建的...

使用DTS创建数据订阅

DTS支持创建自建PosgreSQL、RDS PostgreSQL 数据订阅任务。本文以 RDS PostgreSQL 为例介绍配置流程。前提条件 已创建源 RDS PostgreSQL 实例,创建方式,请参见 创建RDS PostgreSQL实例。已设置源 RDS PostgreSQL 实例的参数wal_level=...

数据集成概述

离线(批量)的数据通道通过定义数据来源和去向的数据源和数据集,提供一套抽象化的数据抽取插件(Reader)、数据写入插件(Writer),并基于此框架设计一套简化版的中间数据传输格式,从而实现任意结构化、半结构化数据源之间数据传输。...

Kafka实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

ClickHouse整库数据离线同步至Hologres

本文以ClickHouse离线同步写入Hologres场景为例,为您介绍如何一次性把ClickHouse整个数据库的数据离线同步至Hologres。使用限制 ClickHouse离线同步仅支持阿里云ClickHouse 20.8、21.8版本。ClickHouse离线同步仅支持使用独享数据集成资源...

独享数据集成资源组

数据集成任务高并发执行且无法错峰运行的情况下,需要专有的计算资源组来保障数据快速、稳定的传输时,建议您选择使用DataWorks的独享数据集成资源组。本文为您概要介绍独享数据集成资源组。功能介绍 独享数据集成资源组的功能亮点如下:...

创建PolarDB MySQL版数据订阅通道

通过数据订阅功能,您可以实时订阅增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文介绍如何创建 PolarDB MySQL版 数据订阅通道。前提条件 PolarDB MySQL版 集群已开启Binlog功能,详情请...

一键建仓

数据管理DMS一键建仓功能可以实现一键创建实时同步的数据仓库,数据可在秒级的延迟下,同步至AnalyticDB MySQL版数据库中,帮助您更实时、准确地掌握业务情况,以便更好地进行业务分析和决策,提升业务效果。本文介绍如何在数据管理DMS中...

附录:ECS自建数据库的安全组配置

如果您使用的是ECS自建数据库,必须添加安全组才能保证资源组可正常读写数据源的数据,本文为您介绍选择不同区域的DataWorks时,如何配置ECS自建数据库的安全组。前提条件 已完成资源组与数据源之间的网络连通配置,详情可参见 选择网络...

MaxCompute数据离线同步至ClickHouse

批量数据计入脏数据:如果想要保证任务运行完成并可接受批量数据丢弃,可选择将批量数据计入脏数据,通过脏数据允许条数控制任务是否退出。配置字段映射 选择数据来源和数据去向后,需要指定读取端和写入端列的映射关系。您可以选择同名...

配置数据源网络

在该ECS实例的 实例详情 页面查看安全组ID和虚拟交换机ID,如下图所示:方法2:使用目标数据源已有的交换机ID和安全组ID 您可以在目标数据源的基础信息页面获取交换机ID和安全组ID,以E-MapReduce为例:当目标数据源的基础信息页面中不存在...

新建 RocketMQ 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 RocketMQ 数据源。前提条件 数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。已在 RocketMQ 实例中创建 Group。详情请参见 创建 ...

开通数据库代理

RDS MySQL数据库代理支持读写分离、连接保持、SSL加密等功能,能够降低主实例负载,提高实例可用性和安全性。本文介绍通过RDS控制台和API接口开通RDS MySQL数据库代理的方法以及推荐代理规格的计算方式。前提条件 主实例需满足以下条件:...

ApsaraDB For OceanBase数据

ApsaraDB for OceanBase数据源提供读取和写入ApsaraDB for OceanBase数据的双向功能,您可以使用ApsaraDB for OceanBase数据源配置同步任务同步数据。本文为您介绍DataWorks的ApsaraDB For Oceanbase数据同步能力支持情况。支持的版本 离线...

新建 Kafka 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 Kafka 数据源。使用限制 数据传输仅支持 Kafka 数据源作为数据同步的目标端。背景信息 数据传输的安全问题,贯穿服务连通性验证、链路创建和数据传输...

新增和使用独享数据服务资源组

网络连通与白名单配置 独享数据服务资源组与数据源之间进行数据服务时,需要确保独享数据服务资源组与不同网络环境数据源之间的连通性,独享数据服务资源组包括公网、阿里云VPC网络、IDC网络等场景的网络连通方案,不同连通场景下需要添加...

资源组操作及网络连通

如果您需要使用独享数据集成资源组通过内网同步ECS自建的数据库,您需要为独享数据集成资源组做相关的网络配置,详情可参见 新增和使用独享数据集成资源组,连通方案核心点为:独享数据集成资源组绑定ECS所在VPC,会自动添加一个路由指向...

数据投递

数据传输服务DTS(Data Transmission Service)提供的数据投递功能,用户可以通过SDK将各种类型的数据源投递到DTS,再由DTS同步至目标数据库,从而支持更多类型的数据源。应用场景 数据投递功能适用于以下任一场景:源端为DTS同步方案暂不...

创建 MySQL 租户

租户的数据有更强的数据保护和可用性要求,支持跨集群物理同步和物理备份恢复,典型数据包括:schema 数据、用户表数据、事务数据等。同时 OceanBase 数据库是多租户的数据库系统,为了确保租户间不出现资源争抢保障业务稳定运行,...

管理连接地址

您可以通过 PolarDB 集群的集群地址和主地址来连接数据库集群。本文将主要介绍如何申请集群地址和主地址。查看连接地址和端口 登录 PolarDB控制台。在左上角,选择集群所在地域。找到目标集群,单击集群ID。在 基本信息 页面的 数据库连接 ...

RDS实例如何变更虚拟交换机vSwitch

不支持网络类型切换的实例 购买新的实例(购买时选择目的VPC和目的虚拟交换机),然后将数据迁移到新的实例,具体的迁移步骤请参见以下文档:RDS实例间数据迁移 MariaDB实例间数据迁移 适用于 云数据库RDS MySQL版 云数据库RDS SQL Server...

新建集群

本文介绍如何新建 云数据库ClickHouse 集群。前提条件 已注册阿里云账号。具体操作,请参见 注册阿里云账号。通过RAM用户(子账号)创建 云数据库ClickHouse 集群时,该RAM用户(子账号)必须拥有AliyunClickHouseFullAccess和...

恢复数据

您可以将主机上实例的历史数据恢复到另一个新实例上,由于直接恢复数据到原实例有风险,因此需要先恢复到新实例。前提条件 您的实例已有数据备份。背景信息 关于 专属集群MyBase 的更多介绍,请参见 什么是云数据库专属集群MyBase。恢复...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 数据库备份 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用