离线同步至Elasticsearch

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

全增量实时同步至Hologres

如上图所示,使用 源端数据库名 将源端数据库名作为目标schema名称,并且将所有满足 order_db.*正则表达式的源库写入目标Hologres名为 order_db 的schema中。自定义目标表名映射规则 在 目标表名映射自定义 列,单击 编辑 按钮。可以使用...

解决因磁盘空间耗尽导致的锁定或无法写入问题

管理人员通过Mongo Shell连接数据库进行排查时,测试写入一条数据,返回错误信息:not authorized on xxxx to execute command,例如:db.customer.insert({"name":"zhangsan"})WriteCommandError({"operationTime":Timestamp(1563437183,1...

行协议教程

TSDB For InfluxDB®的行协议(Line Protocol)是一种基于文本的格式,用于将数据点写入数据库。数据点必须符合行协议格式,TSDB For InfluxDB®才能成功解析和写入数据点。语法 行协议中,一行数据表示TSDB For InfluxDB®中的一个数据点...

配置并管理实时同步任务

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。实时同步支持的数据源及其配置详情请参见 实时同步支持的数据源。说明 数据源...

基于Client SDK数据写入

通过SDK开发写入程序,可简化在 AnalyticDB PostgreSQL版 中写入数据的流程,无需担心连接池、缓存等问题,相比较直接COPY/INSERT写入,通过并行化等内部机制有几倍性能提升。说明 AnalyticDB PostgreSQL版 Client SDK主要职责是将您传入的...

一键实时同步至Kafka

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

一键实时同步至MaxCompute

数据集成附加字段支持的变量字段如下:EXECUTE_TIME:执行时间 UPDATE_TIME:更新时间 DB_NAME_SRC:原始数据库名称 DB_NAME_SRC_TRANSED:转换后数据库名称 DATASOURCE_NAME_SRC:源端数据源名称 DATASOURCE_NAME_DEST:目的端数据源名称 ...

一键实时同步至MaxCompute

数据集成附加字段支持的变量字段如下:EXECUTE_TIME:执行时间 UPDATE_TIME:更新时间 DB_NAME_SRC:原始数据库名称 DB_NAME_SRC_TRANSED:转换后数据库名称 DATASOURCE_NAME_SRC:源端数据源名称 DATASOURCE_NAME_DEST:目的端数据源名称 ...

离线同步能力说明

数据集成的离线同步功能为您提供数据读取(Reader)和写入插件(Writer),方便您通过定义来源与去向数据源,并结合DataWorks调度参数使用,将源端数据库中全量或增量数据的同步至目标数据库中。本文为您介绍离线同步的相关能力。使用限制 ...

一键实时同步至DataHub

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

行协议参考

在实践中的行协议 关于如何将行协议数据写入数据库,请查看工具章节。重复数据点 measurement的名字、tag set和时间戳唯一标识一个数据点。如果您提交的数据具有相同measurement、tag set和时间戳但具有不同field set,那么数据的field set...

通过向导模式配置离线同步任务

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

通过脚本模式配置离线同步任务

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。离线同步支持的数据源及其配置详情请参见 支持的数据源与读写插件。说明 数据...

数据建模

创建时序数据库 Lindorm实例创建成功后,系统会默认创建default数据库,将数据默认写入数据库,您无法删除default数据库。时序引擎也支持创建多个数据库,不同的数据库在存储层面进行物理隔离,支持设置不同的数据有效期(TTL)、时间...

一键实时同步至Elasticsearch

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

Kafka集群的数据存储格式

参数说明 参数 说明 database 数据库名称。es 操作在源库的执行时间,13位Unix时间戳,单位为毫秒。说明 Unix时间戳转换工具可用搜索引擎获取。id 操作的序列号。isDdl 是否是DDL操作。true:是。false:否。mysqlType 字段的数据类型。...

Kafka集群的数据存储格式

参数说明 参数 说明 database 数据库名称。es 操作在源库的执行时间,13位Unix时间戳,单位为毫秒。说明 Unix时间戳转换工具可用搜索引擎获取。id 操作的序列号。isDdl 是否是DDL操作。true:是。false:否。mysqlType 字段的数据类型。...

修改同步或迁移实例的当前位点

数据传输服务DTS(Data Transmission Service)支持修改同步或迁移实例增量写入模块的当前位点,帮助您在目标库写入数据时,跳过或再执行一次源某段时间内的数据变更操作。背景信息 当前位点是实例写入到目标端的最新数据的时间戳,DTS...

连续查询

Lindorm时序引擎支持设置每个数据库的保数据有效期(TTL),您可以结合连续查询,将数据降精度后写入到有效期更长的数据库中。以下示例介绍了如何通过连续查询与数据库TTL设置来实现数据降精度与长期存储。示例 假设,原始数据采样周期为1...

创建数据库写入数据

在进行数据写入和查询前,您需要先创建数据库。本文介绍如何为 云数据库 SelectDB 版 实例创建 数据库写入数据。前提条件 已通过 MySQL协议连接 云数据库 SelectDB 版 实例。具体操作,请参见 连接实例。注意事项 每个 云数据库 SelectDB...

入门概述

快速入门介绍购买并使用 云数据库 SelectDB 版 的完整过程,旨在帮助新用户快速使用 云数据库 SelectDB 版。使用流程 在本教程中,您将进行以下操作。...创建数据库写入数据:介绍如何为 云数据库 SelectDB 版 实例创建数据库写入数据。

INTO子句

以上查询将数据库 NOAA_water_database 的保留策略 autogen 中的所有数据写入数据库 copy_NOAA_water_database 的保留策略 autogen 中。反向引用语法(:MEASUREMENT)将源数据库中measurement的名字维持在目标数据库中不变。请注意,在...

HTTP API

db=database_name 对依赖数据库的查询是必需的(大多数 SELECT 查询和 SHOW 查询需要此参数)。设置查询的目标数据库 epoch=[ns,u,µ,ms,s,m,h]可选。返回具有特定精度的epoch时间戳。TSDB For InfluxDB®默认返回RFC3339格式的时间戳,...

使用Flink写入时序引擎

batchSize 否 批处理大小,即每次写入数据库的数据量,默认值为500个数据点。connectTimeoutMs 否 HTTP连接超时时间,默认值为90000。单位为毫秒(ms)。debug 否 是否开启debug模式,用来打印详细数据点日志。false:不开启,默认值。true...

DB2数据

jdbcUrl":"jdbc:db2:/ip:port/database",/DB2数据库的JDBC连接信息。column":["id"],"batchSize":1024,/一次性批量提交的记录数大小。table":"",/表名。username":"",/用户名。preSql":[]/执行数据同步任务之前执行的SQL语句。},"name...

使用ClickHouse-Local迁移上云

当您需要优化数据管理、提高数据访问性能和降低数据库维护成本时,您可以将自建数据库迁移至云数据库ClickHouse企业版。云数据库ClickHouse企业版通过ClickHouse-Local工具为您的迁移任务提供了简便且可靠的解决方案。什么是ClickHouse-...

通过Kafka导入数据

database.server.name=test123#需要同步的数据库和表,默认是同步所有数据库和表 database.include.list=test table.include.list=test.test_table database.history.kafka.bootstrap.servers=localhost:9092#用于存储数据库表结构变化的 ...

接口说明

在指定的数据库database下进行DDL等操作,比如在指定的database下创建表 Result execute(String database,String sql);其中,Result对象表示SQL的执行结果,比如提交数据库的列表语句("SHOW DATABASES")后,可以通过Result获取到已经存在...

使用SSMS迁移上云

本文以Azure SQL Database为例,介绍如何使用SQL Server Management Studio(SSMS)将您本地自建或其他云的SQL Server数据库迁移到 RDS SQL Server。前提条件 已创建存储空间大于源库的目标 RDS SQL Server 实例,且 RDS SQL Server 实例需...

同步时源为Db2 for LUW的注意事项及限制

Db2 for LUW同步至PolarDB-X 2.0 说明 DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到目标数据库。类型 说明 源库限制 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据同步速率。待...

Oracle数据

说明 数据库容器CDB(Container Database)是Oracle 12c及之后版本的数据库新特性,用于承载多个可插拔数据库PDB(Pluggable Database)。使用限制 当前数据集成同步数据时,仅支持UTF8、AL32UTF8、AL16UTF16及ZHS16GBK编码格式。Oracle单...

时序引擎应用开发简介

使用OpenTSDB或时间序列数据库TSDB的应用开发步骤 Lindorm时序引擎兼容相关接口,对于已有使用OpenTSDB或者时间序列数据库TSDB的应用程序,您可以按照以下步骤进行应用迁移:应用适配 修改应用程序中的连接字符串,连接的目标从原有的...

从MySQL导入数据

当您需要将云数据库RDS MySQL或云原生数据库PolarDB MySQL中的数据迁移至 云数据库ClickHouse 中进行实时分析时,本文档为您提供了以RDS MySQL为参考的示例,以帮助您轻松完成数据迁移任务。前提条件 已创建目标 云数据库ClickHouse 集群,...

专业术语

identifier(标识符)关于连续查询(continuous query)的名字、数据库database)名、field key、measurement的名字、保留策略(retention policy)的名字、tag key和用户(user)名的标记。相关术语:database,field key,measurement...

数据写入

Lindorm时序引擎支持六种数据写入方法:Native SDK写入、行协议写入、标准SQL写入、时间序列数据库TSDB接口写入、remote write数据写入、Flink数据写入。本文介绍数据写入的六种方法。Native SDK写入 Native SDK适用于Java开发者,Native ...

从自建Db2迁移至RDS MySQL

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将自建的Db2数据库迁移至RDS MySQL。DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成Db2数据库的...

实时同步常见问题

可在数据库执行以下命令,查看当前这个数据库实例正在写入的binlog文件。show master status 对比日志中读到的binlog文件,在日志中搜 journalName=MySQL-bin.000001,position=50,确认是否有数据写入数据库。如果有数据在写入,但是binlog...

同步时源为MySQL的注意事项及限制

源库为MySQL的同步方案概览 根据如下同步方案,查看同步任务的注意事项及限制:说明 DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到如下目标数据库:MySQL(RDS MySQL、自建MySQL)PolarDB MySQL版...

使用DTS迁移副本集架构的自建MongoDB数据库上云

使用数据传输服务DTS(Data Transmission Service),将副本集架构的自建MongoDB数据库迁移至云数据库MongoDB中。DTS支持全量数据迁移和增量数据迁移,同时使用这两种迁移类型可以实现在不停服的情况下,平滑地完成数据库的迁移上云。除本...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 RDS 云数据库 MongoDB 版 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用