数据文件的读请求操作主要包括查询请求产生的数据页读取和数据库备份产生的数据页读取,事务日志文件在做备份时会有较多的读I/O负载,其他情况主要是写I/O负载。当发现实例的I/O吞吐较高时,您可以在 自定义指标 中增加以下性能指标,然后...
访问地址可用区 该可用区将作为只读所在可用区和读请求访问的数据可用区。添加只读或读写分离地址时,只读或读写地址的代理和所访问数据的可用区都在所选的这个可用区里。添加直连地址时,访问地址可用区只能选择主可用区。副本类型 选择要...
区域 描述 ① 筛选及搜索区 支持快捷筛选 7天内到期 的数据表。您也可以单击 筛选 按钮,按照 表类型、数据板块、所属项目、表环境 进行筛选。支持按照数据表名称进行搜索。② 申请数据表权限 您可点击 申请表权限 按钮,申请该表的读、写...
区域 描述 ① 筛选及搜索区 支持快捷筛选 7天内到期 的数据表。您也可以单击 筛选 按钮,按照 表类型、数据板块、所属项目、表环境 进行筛选。支持按照数据表名称进行搜索。② 申请数据表权限 您可点击 申请表权限 按钮,申请该表的读、写...
申请表名 选择需要申请权限的数据表,您可以按照数据表名称的关键字进行模糊搜索,也可以单击 图标,根据 表类型、环境、数据板块、项目 进行精确筛选。表类型:支持选择 物理表、元表、镜像表、物理视图、逻辑视图、建模逻辑表 和 标签...
申请表名 选择需要申请权限的数据表,您可以按照数据表名称的关键字进行模糊搜索,也可以单击 图标,根据 表类型、环境、数据板块、项目 进行精确筛选。表类型:支持选择 物理表、元表、镜像表、物理视图、逻辑视图、建模逻辑表 和 标签...
temp_bytes bigint 在数据库中被查询写到临时文件中的数据总量。所有临时文件都会被统计,忽略创建这些临时文件的原因,并且忽略 log_temp_files 的设置。deadlocks bigint 在数据库中被检测到的死锁数。blk_read_time double precision 在...
temp_bytes bigint 在数据库中被查询写到临时文件中的数据总量。所有临时文件都会被统计,忽略创建这些临时文件的原因,并且忽略 log_temp_files 的设置。deadlocks bigint 在数据库中被检测到的死锁数。blk_read_time double precision 在...
更正文档 贡献说明 概述 本组件为SPI VFS驱动子系统。...可使用示波器确认通过SPI总线发送的数据是否是spi_example中发送的数据一致来最终确认SPI是否工作正常。关键日志 说明 CLI日志:vfs spi test success,ret:0 注意事项 无 FAQ 无
适用场景 计算链路 计算引擎 是否支持 离线 MaxCompute 是 Hive 是 RDS/MySQL 是 使用说明 标签对象的使用和读数据表类似,可以做为模型的数据源直接拖拽到画布中使用,在算子详情中可以查看对应标签对象的数据表信息及已上线的标签(可以...
特殊情况 当目标库为RDS MySQL时,DTS会自动在RDS MySQL中创建数据库,如果待迁移的数据库名称不符合RDS MySQL的定义规范,您需要在配置迁移任务之前在RDS MySQL中创建数据库。相关操作,请参见 管理数据库。费用说明 迁移类型 链路配置...
特殊情况 当目标库为RDS MySQL时,DTS会自动在RDS MySQL中创建数据库,如果待迁移的数据库名称不符合RDS MySQL的定义规范,您需要在配置迁移任务之前在RDS MySQL中创建数据库。相关操作,请参见 管理数据库。费用说明 迁移类型 链路配置...
本文介绍如何使用数据传输服务DTS(Data Transmission Service),将 PolarDB MySQL版 集群的数据迁移至自建Oracle。前提条件 已创建存储空间大于源 PolarDB MySQL版 集群已占用存储空间的自建Oracle数据库。若自建Oracle为RAC结构,需通过...
配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...
配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...
PolarDB-X 是一款支持HTAP(Hybrid Transaction/Analytical Processing)的数据库,在支持...PolarDB-X 中,对于路由给只读实例的查询,默认开启全局一致性读能力,确保业务不会读到过期的数据,向主实例写入成功后能在只读库读到写入的数据。
异常诊断功能可以查询指定AppID下异常通话的总览数据、异常因素分布及异常通话明细。通过阅读本文,您可以了解异常通话的查询方法。前提条件 如果您需要使用异常诊断功能,请 提交工单 开通,创建工单时请备注开通异常诊断功能并附上您的...
MQTT云网关设备可通过自定义的消息Topic与物联网平台进行通信,物联网平台会透传设备的上下行通信数据。本文介绍设备实现上下行通信的相关说明。MQTT云网关产品和设备的详细内容,请参见 创建云网关产品(MQTT)和 创建云网关设备(MQTT)...
说明 实时同步任务从一个系统读数据,并将数据写入另一个系统,当写数据比读数据慢时,则读数据一侧的系统会受到反压,导致速度变慢。即造成瓶颈的系统可能会由于反压导致另一侧系统的一些异常,此时要优先关注造成瓶颈的系统的异常情况。...
当发生主备切换操作时,业务并不能立刻读到最新的数据,这是一些业务无法接受的。如果业务使用了Increment、CheckAndPut等先读后写的原子语义接口,并且没有读到最新数据,那么就会导致数据错乱或者回退。如果可用区A的网络存在故障,由于...
数据源 在数据源下拉列表中,展示所有Hive类型的数据源,包括您已拥有同步写权限的数据源和没有同步写权限的数据源。对于没有同步写权限的数据源,您可以单击数据源后的 申请,申请数据源的同步写权限。具体操作,请参见 申请数据源权限。...
LOADING_NCI状态对读一致性的影响 处于LOADING_NCI状态的索引中的数据依然可读,列存索引会根据您不同的参数配置提供不同的一致性级别的读服务。详情见下表:索引状态 参数配置 可读性(读一致性)LOADING_NCI imci_enable_read_during_...
Log Service输入组件用于读取Log Service数据源的数据。同步Log Service数据源的数据至其他数据源的场景中,您需要先配置Log Service输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Log Service输入组件。在开始...
Log Service输入组件用于读取Log Service数据源的数据。同步Log Service数据源的数据至其他数据源的场景中,您需要先配置Log Service输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Log Service输入组件。在开始...
ArgoDB输入组件用于读取ArgoDB数据源的数据。同步ArgoDB数据源的数据至其他数据源的场景中,您需要先配置ArgoDB输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置ArgoDB输入组件。使用限制 ArgoDB输入组件支持数据...
一次提交的数据量 为提高写出效率,数据集成会积累Buffer数据,待积累的数据大小达到一次提交的数据量大小(单位MB)时,批量提交到目的端。默认是1,即1 MB数据。高级配置 按需进行配置。支持以下参数:maxRetryCount:任务失败的最多重试...
MongoDB输入组件用于读取MongoDB数据源的数据。同步MongoDB数据源的数据至其他数据源的场景中,您需要先配置MongoDB输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置MongoDB输入组件。前提条件 在开始执行操作前,...
一次提交的数据量 为提高写出效率,数据集成会积累Buffer数据,待积累的数据大小达到一次提交的数据量大小(单位MB)时,批量提交到目的端。默认是1,即1 MB数据。高级配置 按需进行配置。支持以下参数:maxRetryCount:任务失败的最多重试...
数据源 在数据源下拉列表中,展示所有TDH Inceptor类型的数据源,包括您已拥有同步写权限的数据源和没有同步写权限的数据源。对于没有同步写权限的数据源,您可以单击数据源后的 申请,申请数据源的同步写权限。具体操作,请参见 申请数据...
Greenplum输入组件用于读取Greenplum数据源的数据。同步Greenplum数据源的数据至其他数据源的场景中,您需要先配置Greenplum输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Greenplum输入组件。操作步骤 请参见 ...
OSS输入组件用于读取OSS数据源的数据。同步OSS数据源的数据至其他数据源的场景中,您需要先配置OSS输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置OSS输入组件。前提条件 在开始执行操作前,请确认您已完成以下...
OSS输入组件用于读取OSS数据源的数据。同步OSS数据源的数据至其他数据源的场景中,您需要先配置OSS输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置OSS输入组件。前提条件 在开始执行操作前,请确认您已完成以下...
HBase输入组件用于读取HBase数据源的数据。同步HBase数据源的数据至其他数据源的场景中,您需要先配置HBase输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置HBase输入组件。前提条件 在开始执行操作前,请确认您已...
同步其他数据源的数据至MySQL数据源的场景中,完成源数据源的信息配置后,需要配置MySQL输出组件的目标数据源。本文为您介绍如何配置MySQL输出组件。前提条件 已创建MySQL数据源,详情请参见 创建MySQL数据源。进行FTP输出组件属性配置的...
同步其他数据源的数据至MySQL数据源的场景中,完成源数据源的信息配置后,需要配置MySQL输出组件的目标数据源。本文为您介绍如何配置MySQL输出组件。前提条件 已创建MySQL数据源,详情请参见 创建MySQL数据源。进行FTP输出组件属性配置的...
Greenplum输入组件用于读取Greenplum数据源的数据。同步Greenplum数据源的数据至其他数据源的场景中,您需要先配置Greenplum输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Greenplum输入组件。操作步骤 请参见 ...
同步其他数据源的数据至OpenGauss数据源的场景中,完成源数据源的信息配置后,需要配置OpenGauss输出组件写入数据的目标数据源。本文为您介绍如何配置OpenGauss输出组件。前提条件 已创建OpenGauss数据源,如何创建,请参见 创建OpenGauss...
同步其他数据源的数据至OpenGauss数据源的场景中,完成源数据源的信息配置后,需要配置OpenGauss输出组件写入数据的目标数据源。本文为您介绍如何配置OpenGauss输出组件。前提条件 已创建OpenGauss数据源,如何创建,请参见 创建OpenGauss...
同步其他数据源的数据至TiDB数据源的场景中,完成源数据源的信息配置后,需要配置TiDB输出组件写入数据的目标数据源。本文为您介绍如何配置TiDB输出组件。前提条件 已创建TiDB数据源,如何创建,请参见 创建TiDB数据源。进行TiDB输出组件...
同步其他数据源的数据至TiDB数据源的场景中,完成源数据源的信息配置后,需要配置TiDB输出组件写入数据的目标数据源。本文为您介绍如何配置TiDB输出组件。前提条件 已创建TiDB数据源,如何创建,请参见 创建TiDB数据源。进行TiDB输出组件...