网络隔离 使用专有网络 云数据库MongoDB版支持多种网络类型,推荐使用专有网络。专有网络是一种隔离的网络环境,安全性和性能均高于传统的经典网络。专有网络需要事先创建,详情请参见 创建专有网络。当MongoDB实例为经典网络时,您可以将...
网络类型 数据校验任务使用的网络类型,固定为 专线。资源组 选择校验任务所属的资源组,相关介绍,请参见 什么是资源管理。购买量 链路数量 一次性购买数据校验任务的数量,默认为1,最大为99。单击 立即购买,根据提示完成支付流程。下...
当线上数据库中的历史数据(访问率很低的数据)越来越多,占用的存储越来越大,以至于会影响数据库的查询性能与业务运转,此时您可以使用 数据管理DMS 的数据归档功能,周期性地将指定表的数据归档至其他数据库或存储服务中。同时,该功能...
异地灾备 不论业务部署在一个或多个地域,都能通过全球数据库网络实现异地容灾。当主集群出现地域级别的故障时,您只需要手动将您的业务切换到从集群。说明 主从集群切换在10分钟之内完成(实际测试5分钟以内),切换过程中,可能会出现60...
本文介绍了您在使用C100系列数据库审计服务时可能遇到的问题和解决方案,帮助您更好地理解和使用产品。安装Agent相关问题 通过云助手安装的Agent,Agent安装目录是什么?通过云助手安装的Agent,Agent的日志目录是什么?安装Agent时,系统...
本文介绍如何创建数据管理DMS(Data Management)逻辑库的数据订阅任务。...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费PolarDB-X 1.0订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建 RDS MySQL 数据订阅任务。前提条件 已创建源 RDS MySQL 实例,创建方式,请参见 ...
本文为您介绍如何创建 PolarDB PostgreSQL版 数据订阅任务。前提条件 已创建源 PolarDB ...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
本文介绍如何创建 PolarDB分布式版 数据订阅任务。前提条件 已创建 PolarDB分布式版 实例和...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
DTS支持创建自建PosgreSQL、RDS PostgreSQL 数据订阅任务。本文以 RDS PostgreSQL 为例介绍...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
通过数据订阅功能,您可以实时订阅增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文介绍如何创建 PolarDB MySQL版 数据订阅任务。前提条件 已创建 PolarDB MySQL版 集群,详情请参见 购买...
本文介绍如何创建 PolarDB-X 1.0 数据订阅任务。前提条件 已创建 PolarDB-X 1.0...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费PolarDB-X 1.0订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
DTS支持创建自建PosgreSQL、RDS PostgreSQL 数据订阅任务。本文以 RDS PostgreSQL 为例介绍...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
本文为您介绍如何创建 PolarDB PostgreSQL版(兼容Oracle)数据订阅任务。...根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据 使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据
使用同样的方式可配置其他省市级的下钻区域数据,数据的规律为 国家>省或直辖市>地市级>区县级,即上一级必须包含下一级的区域数据(adcode和位置数据等)才可下钻。映射数据接口:参见 区域热力层数据。交互 表 1.交互说明 交互 说明 当...
如果需要审计经典网络数据库实例,您需要先通过ClassicLink功能实现经典网络的ECS与VPC中的数据库审计系统互通,并在经典网络的ECS上部署Agent程序。前提条件 VPC中启用ClassicLink时,需要满足限定条件,具体请参见ClassicLink概述的 使用...
所有集群间的数据都能保持同步且网络延迟被控制在2秒之内,大大降低了非中心区域应用访问的读取延迟。创建异地从集群并保持数据同步,不会影响现有主集群的稳定性和性能。跨地域读写分离 特点 读请求通常情况下会直接发往当前地域下的从...
本文汇总了使用冷热分离功能时的常见问题。Q:数据什么时候进入冷存储?A:Lindorm通过 compaction 机制异步将冷数据从热存储归档至冷存储,系统触发时间默认为冷热分界线的一半,最小为1天,最大为 major compaction 周期的一半,major ...
例如:《金融数据安全分级指南 JR/T 0197-2020》《网络安全标准实践指南——网络数据分类分级指引》《信息安全技术个人信息安全规范 GB/T 35273—2020》《信息技术大数据数据分类指南 GB/T 38667-2020》《基础电信企业数据分类分级方法 YD/...
上传数据至MaxCompute引擎:支持使用公共资源组及独享资源组,且需确保数据上传任务使用的数据源与所选资源组网络连通。所选独享资源组需绑定至待接收数据的表所在的DataWorks工作空间。上传数据至EMR Hive、Hologres引擎:仅支持使用独享...
数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 组件数据源配置。数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤...
本文档介绍如何在DataV中添加并使用实时数仓Hologres数据源。前提条件 已准备好待添加的实时数仓Hologres数据源。通过内网添加数据源操作步骤 登录 DataV控制台。在 我的数据 页签中选择 数据源管理,单击 添加数据。从 类型 列表中,选择 ...
SSL在传输层对网络连接进行加密,能提升通信数据的安全性和完整性。您可以启用SSL加密,并安装SSL CA证书到需要的应用服务。更多关于SSL加密的信息和配置介绍,请参见 设置SSL加密。数据安全 PolarDB 的透明数据加密TDE(Transparent Data ...
本文介绍 云原生数据库PolarDB 使用过程中遇到的术语。地域(Region)数据中心所在的地理位置。可用区(Zone)可用区是指在某一地域内,具有独立电力和网络的物理区域。同一可用区内实例之间的网络延时更小。集群(Cluster)PolarDB 采用多...
选择内网数据库的网络类型(包括 专有网络 和 经典网络)。专有网络 打开 VPC 开关,进入 专有网络 模式。填写数据库信息。说明 如果您需要新建数据库,请参见 创建数据库。参数 说明 名称 数据源的显示名称,可以自由命名。VPC ID VPC实例...
选择内网数据库的网络类型(包括 专有网络 和 经典网络)。专有网络 打开 VPC 开关,进入 专有网络 模式。填写数据库信息。说明 如果您需要新建数据库,请参见 创建数据库。参数 说明 名称 数据源的显示名称,可以自由命名。VPC ID VPC实例...
本文为您介绍在DataV中通过内网和外网添加RDS for SQLServer数据源的方法。前提条件 已准备好待添加的RDS for SQLServer数据源。通过内网添加数据源操作步骤 登录 DataV控制台。在 工作台 页面,单击 数据准备>数据源,进入 数据源 页面,...
本文为您介绍在DataV中通过内网和外网添加RDS for SQLServer数据源的方法。前提条件 已准备好待添加的RDS for SQLServer数据源。通过内网添加数据源操作步骤 登录 DataV控制台。在 我的数据 页签中选择 数据源管理,单击 添加数据。从 类型...
步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...
数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景。本文将介绍数据迁移功能支持的数据库、版本和迁移类型,以及具体的配置文档。说明 数据迁移在某些场景...
API开发流程 创建数据源并配置网络连通性 使用数据服务创建API前,需先将您的数据库或数据仓库添加为DataWorks数据源,以此作为数据服务API的数据来源。开发数据服务API时,数据服务将访问该数据源获取数据表的Schema信息,帮助您进一步...
如果您用独享数据集成资源组同步同阿里云账号,同Region下的VPC环境数据库,您购买添加独享数据集成资源组后,还需完成网络配置和工作空间绑定,操作详情可参见 新增和使用独享数据集成资源组。如果您已完成网络连通配置,但资源组仍然无法...
数据同步 数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等多种业务场景。同步支持的数据库、版本和同步类型以及配置文档,请参见...
由于执行数据同步任务流程的要求,需要保证资源组可以访问数据源(来源数据源和目标数据源)所在的网络,且不会因白名单限制等原因不能访问数据源。因此,您需要在保证网络连通的前提下,再使用数据集成,如果网络不通,会导致数据同步任务...
本文为您介绍如何使用数据传输迁移 TiDB 数据库的数据至 OceanBase 数据库 MySQL 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动释放...
您需要确保数据集成用于执行数据同步的资源组与您将同步的数据来源端与目标端网络环境的连通,数据集成支持您根据数据源所在网络环境,选择对应的网络同步任务,关于网络连通方案选择与配置资源组与数据源的网络连通,详情请参见:配置资源...
本文为您介绍如何使用数据传输迁移 MySQL 数据库的数据至 OceanBase 数据库 MySQL 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...
本文为您介绍如何使用数据传输迁移 OceanBase 数据库 MySQL 租户的数据至 MySQL 数据库。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...
本文为您介绍如何使用数据传输迁移 OceanBase 数据库 Oracle 租户的数据至 Oracle 数据库。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...
本文为您介绍如何使用数据传输迁移 OceanBase 数据库的数据至 OceanBase 数据库同类型租户中。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将...