产品优势

它提供了数据迁移、实时数据订阅及数据实时同步等多种数据传输方式。相对于第三方数据流工具,DTS提供丰富多样、高性能、高安全可靠的传输链路,同时它提供了诸多便利功能,极大方便了传输链路的创建及管理。丰富多样 DTS支持多种同构或...

网络资源

网络资源是指用于节点之间通信数据传输的硬件和软件资源,除了包括广域网、局域网、交换机、路由器,还包括常用到的专有网络、虚拟交换机、负载均衡、弹性公网、VPN、DNS、CDN等资源。在分布式系统中,网络资源的主要作用是支持节点之间...

数据传输加密

浏览器与服务器端访问统一使用SSL加密,即使用HTTPS...Dataphin内部服务接口权限控制:内部RPC接口调用采用密钥和白名单方式进行控制,数据内容是二进制传输。私有云独立部署场景下(使用自建数据服务网关),目前不支持使用HTTPS协议访问。

数据传输加密

浏览器与服务器端访问统一使用SSL...Dataphin内部服务接口权限控制:内部RPC接口调用采用密钥和白名单方式进行控制,数据内容是二进制传输。公共云SaaS下的数据服务支持HTTPS协议访问。支持配置使用公有云的阿里云网关,支持HTTPS协议访问。

2020年

暂无 2020年8月 支持从MySQL(例如RDS MySQL、Polar MySQL、自建MySQL)迁移至有公网IP的自建Kafka,是数据同步场景的补充。从RDS MySQL迁移至自建Kafka 支持RDS PPAS 9.3、9.6、10.0版本到PolarDB O引擎的数据迁移。从RDS PPAS迁移至...

概述

数据迁移项目是数据迁移功能的基本单元。创建数据迁移项目时,您可以指定的最大迁移范围是数据库级别,最小迁移范围是表级别。详情请参见 数据迁移 模块的内容。说明 目前数据迁移项目仅支持后付费模式,即按量付费计费模式。当前为限时...

基本概念

数据库实例:数据库实例是在云中运行的独立数据库环境。一个数据库实例可以包含多个由数据库用户创建的数据库,并且...索引:索引是数据库管理系统对数据库表中一个或多个列的值进行排序的数据结构,使用索引可快速访问数据库表中的特定信息。

安全基线检查

数据安全中心通过动态检测数据资产配置的方式,以数据为落脚点检测阿里云上数据库资产是否存在配置风险,例如身份验证、访问控制、加密、备份和恢复等方面的配置是否安全,这些检查策略和检查项统称为安全基线检查。安全基线检查功能可以帮...

应用场景

不停机迁移数据传输方式数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入数据。根据数据量和网络条件,迁移过程可能需要几个小时甚至几天的时间。这个漫长的过程可能会对您的业务产生很大的影响。...

从自建Redis集群同步至Redis集群实例

数据传输服务DTS(Data Transmission Service)支持Redis集群间的单向同步,适用于数据迁移、异地多活、数据异地容灾等多种应用场景。本文以自建Redis集群同步至阿里云Redis集群实例为例,介绍数据同步作业的配置流程。从阿里云Redis集群...

概述

基本概念 名称 描述 Event 是数据流通过Flume Agent的基本单位。Event由一个可选的Header字典和一个装载数据的字节数组组成。示例如下。Header(Map)|Body(byte[])|-Flume Event Source 是数据源收集器,从外部数据源收集数据,并批量发送到...

Kafka集群的数据存储格式

更新数据的示例如下:说明 2022年3月20日之前创建的DTS订阅实例,源表的 DELETE 语句同步到kafka,其中 old 的值是数据,data 的值是null。为了和开源社区保持一致,2022年3月20日起创建或重启的DTS订阅实例,data 的值是数据,old 的值是...

Kafka集群的数据存储格式

更新数据的示例如下:说明 2022年3月20日之前创建的DTS订阅实例,源表的 DELETE 语句同步到kafka,其中 old 的值是数据,data 的值是null。为了和开源社区保持一致,2022年3月20日起创建或重启的DTS订阅实例,data 的值是数据,old 的值是...

产品安全能力

PolarDB 产品的安全能力可以从访问安全、数据传输安全、数据安全、数据脱敏和安全审计5个方面体现。访问安全 PolarDB 提供的集群白名单功能实现了集群访问安全,集群白名单功能包括集群IP白名单和安全组,创建 PolarDB MySQL版 集群后,您...

数据迁移链路规格说明

本文介绍数据迁移各链路规格的说明及性能测试情况。注意事项 本文中提供的性能指标仅用于提供参考的测试数据,并不作为产品SLA的评判标准。使用DTS可实现数据秒级增量迁移到目标实例,但受限于源实例的运行负载、传输网络的带宽、网络延时...

修改实例参数

数据传输服务DTS(Data Transmission Service)支持修改实例的部分参数,帮助您降低数据传输过程中的延迟,提升数据传输的性能和效率。前提条件 已创建同步或迁移实例,详情请参见 同步方案概览 或 迁移方案概览 中的相关配置文档。注意...

计费方式

数据传输服务DTS(Data Transmission Service)不同实例支持的计费方式不同,本文详细介绍了DTS产品的计费方式。说明 DTS产品的计费项,请参见 计费项。计费方式 支持的实例 说明 包年包月 数据订阅实例 数据同步实例 也称为预付费,即在...

计费项

数据传输服务DTS(Data Transmission Service)不同实例的收费项目不同,本文详细介绍了DTS产品的计费项和计费规则。DTS实例的价格主要与计费方式、实例的功能类型、实例的集群类型、源和目标数据库实例所属的地域、链路数量、订购时长等...

数据传输计费说明

费用概述 云数据库 OceanBase 数据传输服务提供数据迁移和数据同步两种项目,不同项目的计费方式略有不同。数据迁移项目:目前仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。数据同步项目:目前仅支持...

查询和修改数据复制方式

您可以根据自身业务特点,设置RDS MySQL主备实例之间的数据复制方式,以提高云数据库可用性。前提条件 实例满足以下条件:MySQL 5.7、8.0高可用系列(本地SSD盘)MySQL 5.7、8.0高可用系列(ESSD云盘),且内核小版本必须大于或等于...

数据传输服务(上传)场景与工具

本文为您介绍如何将数据上传至MaxCompute或从MaxCompute下载数据,包括服务连接、SDK、工具和数据导入导出、上云等常见操作。背景信息 MaxCompute提供了多种数据上传下载的通道支持,方便您在各种场景下进行技术方案选型时参考。批量数据...

使用数据订阅功能传输数据后日期数据格式发生变化

概述 本文主要介绍MySQL中数据类型为Date的数据,通过数据订阅传输数据后,数据格式由 YYYY-MM-DD 格式变化为 YYYY:MM:DD 的原因。详细信息 DTS默认数据存储格式为 YYYY:MM:DD,YYYY-MM-DD 是展现出来的格式,实际存储是 YYYY:MM:DD 格式。...

数据传输迁移角色授权

(可选)主账号授予 RAM 用户数据传输迁移角色授权权限 RAM 用户需要具备数据传输迁移角色 AliyunOceanbaseMigrationServiceRolePolicy,才可以正常访问数据传输。如果 RAM 用户未具备该角色,则需要主账号先登录 RAM 控制台,手动给数据...

下载和导入同步对象配置

说明 如果是数据库至数据库的数据同步项目,仅选择 指定对象 方式时,支持导入对象。配置数据同步项目的具体操作,请参见相应类型的数据同步项目文档。在提示框中,单击 确定,进入 导入同步对象 对话框。单击 导入同步对象 对话框下方的 ...

通过外表导入至数仓版

Storage API方式与Tunnel方式的区别如下:访问方式 集群版本 地域 费用 数据访问效率 Tunnel方式 无限制 无限制 免费 使用公共数据传输服务资源组,该资源会被该地域所有项目共享使用,数据访问和导入速度慢。Storage API方式 3.1.10.2及...

异常诊断

异常诊断功能可以查询指定AppID下异常通话的总览数据、异常因素分布及异常通话明细。...异常诊断包含此次通话的基本信息及诊断结果,您可以通过单击 端到端数据 查看通信监测的端到端数据。更多信息,请参见 端到端数据

异常诊断

异常诊断功能可以查询指定AppID下异常通话的总览数据、异常因素分布及异常通话明细。...异常诊断包含此次通话的基本信息及诊断结果,您可以通过单击 端到端数据 查看通信监测端到端数据。更多信息,请参见 端到端数据说明。

实验介绍

数据加工 使用 DataWorks数据开发(DataStudio)模块,将日志数据通过函数正则等方式拆解为可分析字段,并与用户信息表加工汇总产出基本的用户画像数据,并提交调度系统,结合DataWorks调度参数实现周期性数据清洗操作。学习如下内容:如何...

新建 PostgreSQL 数据

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PostgreSQL 数据源。前提条件 已创建 RDS PostgreSQL 实例。详情请参见 创建 RDS PostgreSQL 实例。重要 数据传输不支持 Serverless 模式实例和只读实例...

Bucket Shuffle Join

本文介绍 云数据库 SelectDB 版 支持通过Bucket Shuffle Join进行查询优化,能够减少数据在节点间的传输耗时和Join时的内存开销,进而优化查询性能。功能简介 Bucket Shuffle Join旨在为某些Join查询提供基于本地的优化,减少数据在节点间...

购买流程

数据传输服务DTS(Data Transmission Service)支持先配置再购买和先购买再配置两种创建任务方式。若您需要随用随配,建议您选择先配置再购买的方式;若您需要先锁定财务预算而不需要配置任务,建议您选择先购买再配置的方式。本文介绍数据...

设置告警

背景信息 告警监控功能是数据传输重要的运维管理功能,能够方便您根据实际业务需求对数据迁移、数据同步项目的运行状况进行全面监控。同时,告警监控功能支持自定义发送告警的规则和消息接收方式,以提升数据传输链路的运维效率,降低故障...

快速体验

数据加工 使用 DataWorks数据开发(DataStudio)模块,将日志数据通过函数正则等方式拆解为可分析字段,并与用户信息表加工汇总产出基本的用户画像数据,并提交调度系统,结合DataWorks调度参数实现周期性数据清洗操作。学习如下内容:如何...

新建 ADB 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建云原生数据仓库 AnalyticDB MySQL 版(简称 ADB)数据源。背景信息 ADB 的基本介绍请参见 基础数据类型。ADB 的建表、分区表和分布表的详情请参见 ...

新建 TiDB 数据

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 TiDB 数据源。前提条件 已获取相关数据库的 IP 地址和端口号。已存在用于数据迁移的数据库用户。建议您为数据迁移项目创建一个专属的数据库用户,该用户...

查看数据复制方式

本文介绍如何查看RDS SQL Server主备实例之间的数据复制方式。使用限制 仅 高可用系列 和 集群系列 的实例支持查看数据复制方式。暂不支持修改数据复制方式。复制方式介绍 同步 应用发起的更新在主实例执行完成后,会将日志同步传输到备...

新建 DataHub 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 DataHub 数据源。操作步骤 登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据源管理。在 数据源列表 页面,单击右上角的 新建数据源。在 ...

数据传输规格说明

本文为您介绍 OceanBase 数据传输服务的规格说明及性能测试情况。注意事项 本文的规格说明参考的是测试数据,仅供您在选择规格时进行参考,不作为产品 SLA(服务等级协议)的评判依据。不同的实例规格对应了增量同步的不同 RPS 性能表现,...

新建 PolarDB-X 1.0 数据

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PolarDB 数据源。背景信息 PolarDB-X 1.0 是由阿里巴巴自主研发的 PolarDB 分布式版数据库,融合分布式 SQL 引擎和分布式自研存储 X-DB,基于云原生...

概览

AnalyticDB PostgreSQL版 提供多种数据迁移方案,可满足不同的数据同步或迁移的业务需求,您可以在不影响业务的情况下,平滑地与各种类型的数据库实例进行迁移或数据同步。迁移数据到AnalyticDB PostgreSQL版 迁移类型 文档 简介 是否支持...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库审计 数据库备份 DBS 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用