批量新增离线数据同步任务

本文以同步MySQL数据源到MaxCompute目标为例,介绍如何批量新增离线数据同步任务。前提条件 已存在对应数据源,具体操作,请参见 新建数据源。已完成源端数据和目标的物理表同步,具体操作,请参见 获取物理表。已添加离线数据同步任务...

慢查询检测

慢传输请求 单次RPC请求从客户端传输到服务端网络存在传输时延。重要 当前该功能暂未开放,控制台可选择但不支持查询。如果您想要查询慢传输请求,请联系Lindorm技术支持(钉钉号:s0s3eg3)。大输入请求 单次请求输入数据量超过10 MB。...

数据表-数据概况

适用场景 随着业务逐渐增大,期望能尽快分析出每个表中存储数据大小,以便更有针对性的进行存储优化,此时结合表存储大小可以解决此类场景。数据越来越多,期望对访问频次不高的数据进行冷归档,以节省存储成本,此时结合访问次数可以快速...

新增实时任务

说明 若目标数据对象中没有与数据源的数据对象对应目标表,则可在数据对象下拉列表中,选择 创建目标表,在目标中新建数据对象。配置字段映射:在 字段映射 区域,系统默认为同名映射,可根据需要选择同行映射或通过拖拽连线自定义...

新增实时任务

说明 若目标数据对象中没有与数据源的数据对象对应目标表,则可在数据对象下拉列表中,选择 创建目标表,在目标中新建数据对象。配置字段映射:在 字段映射 区域,系统默认为同名映射,可根据需要选择同行映射或通过拖拽连线自定义...

Kafka实时ETL同步至Hologres

子任务数=分区数除以6向上取整 单子任务读并发数=6 单子任务写并发数=6 单子任务内存占用=2GB 由于同步任务的性能表现和资源占用受到源和目标系统数据流量、网络环境和系统负载等因素影响,基于上述简单规则,您可以根据实际情况做...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

概述

PolarDB 集群 备份集逻辑大小(上图中②所示):指备份快照的逻辑数据大小,数据备份的收费对象为实际独立占用的物理空间大小,非逻辑数据大小。其实际独立占用的物理空间大小初始为0,但会随着数据的写入而增加,每个数据备份(快照)独立...

Kafka单表实时入湖OSS(HUDI)

准备独享数据集成资源组并与数据网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源的网络连通,详情请参见 配置资源组与网络连通。说明 OSS数据源在下一步新增OSS数据源时,指定Endpoint地址,即可实现OSS数据源与独享...

跨阿里云主账号访问

您在跨账号进行数据同步任务之前,需要设置并确保执行任务的独享数据集成资源组,与源及目标端数据库之间的网络连通性。本文将为您介绍在使用跨阿里云账号时,数据库与DataWorks工作空间之间的网络连通操作。背景信息 网络连通方案选择取...

数据集成概述

但在进行上述网络环境下的数据同步前,您需要确保数据集成用于执行数据同步的资源组与您将同步的数据来源端与目标端网络环境的连通,数据集成支持您根据数据源所在网络环境,选择对应的网络同步任务,关于网络连通方案选择与配置资源组与...

查看与减少数据备份

本文介绍如何在DBS中查看备份数据大小,同时提供减少备份的方法。查看备份大小 备份大小=全量数据备份的大小+增量数据备份的大小 登录 DBS控制台。单击左侧导航栏中的 备份计划,然后在上方选择目标地域。单击目标备份计划名称,进入 备份...

离线同步能力说明

在配置同步任务前,您需要确保数据集成资源组与您将同步的数据来源端与目标端网络环境已经连通,对应数据库环境与网络连通配置详情请参见:配置资源组与网络连通。数据同步场景 离线同步支持单表同步至目标端单表、分库分表同步至目标端单...

开通备份恢复

全量备份空间大小开通备份恢复功能后可在Lindorm管理控制台查看,查看方式:宽表引擎>备份恢复,在 全量备份 区域,查看 备份数据大小。增量备份空间大小=日志保留天数 x 每天增量LOG大小。例如实例写入的平均速度为1 MB/s,每天需要的增量...

数据质量:全流程的质量监控

数据质量帮助您第一时间感知到源端数据的变更与ETL(Extract Transformation Load)中产生的脏数据,自动拦截问题任务,有效阻断脏数据向下游蔓延。说明 ETL是抽取、转换和加载源端数据至目的的过程。数据质量以数据集(DataSet)为监控...

备份大小

数据大小的关系 备份大小可能比数据量大,也可能比数据量小。云盘实例采用快照备份。快照备份的大小可能远大于数据的大小。云盘实例备份免费额度为实例存储容量的200%,本地盘实例备份免费额度为实例存储容量的50%。说明 计算快照备份...

概述

说明 PolarDB 集群 一级备份(快照)总大小 是所有一级备份独占的物理空间之和(即上图中①所示),而非逻辑数据大小之和(即上图中②所示),PolarDB 集群的数据与多个一级备份(快照)会复用相同的物理数据块,在计费时只会计算一次。...

新增离线数据同步任务

本文以同步MySQL数据源到MaxCompute目标为例,介绍如何新增离线数据同步。前提条件 已存在对应数据源,具体操作,请参见 新建数据源。已完成源端数据和目标的物理表同步,具体操作,请参见 获取物理表。已添加离线数据同步任务目录,...

新增离线数据同步任务

本文以同步MySQL数据源到MaxCompute目标为例,介绍如何新增离线数据同步。前提条件 已存在对应数据源,具体操作,请参见 新建数据源。已完成源端数据和目标的物理表同步,具体操作,请参见 获取物理表。已添加离线数据同步任务目录,...

设置增量同步位点

适用场景 您可以通过设置增量同步位点的方式实现以下场景:您在创建数据迁移或数据同步项目前,已确保源和目标数据是一致的,需要获取某个时间节点之后的增量数据并同步至目标。您不再需要源端数据库的历史数据,仅需同步某个时间...

数据集成支持的数据

实时集成 适用于将来源端数据源中整库或全部表的数据变化实时集成至目标端数据源中,实现 来源端数据源与目标端数据源 实时地保持数据同步。离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 ...

离线同步数据质量排查

如果写出数据和目标存储已有数据发生数据约束(主键冲突、唯一键约束、外键约束等),数据库则使用来源数据update更新目标表已有数据行,在目标表存在多个数据约束的情况下,数据替换可能会失败并产生脏数据 如果写出数据和目标存储已有...

新增多表实时任务

已完成源端数据和目标的物理表同步,具体操作,请参见 获取物理表。已添加同步任务目录,具体操作,请参见 添加任务目录。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标...

新增多表实时任务

已完成源端数据和目标的物理表同步,具体操作,请参见 获取物理表。已添加同步任务目录,具体操作,请参见 添加任务目录。操作步骤 登录企业数据智能平台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标工作组...

购买数据同步项目

本文为您介绍如何购买云数据库 OceanBase 数据传输服务提供的数据同步项目。背景信息 目前数据同步项目仅支持预付费模式,即包年包月计费模式。您可以根据本文操作购买相应类型的数据同步项目后,再对项目进行具体配置和管理。数据同步项目...

购买数据迁移项目

本文为您介绍如何购买云数据库 OceanBase 数据传输服务提供的数据迁移项目。背景信息 目前数据迁移项目仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。您可以根据本文操作购买相应类型的数据迁移项目后...

基本概念

DTS 数据传输服务(Data Transmission Service,简称DTS)支持关系型数据库(RDBMS)、非关系型数据库(NoSQL)、数据多维分析(OLAP)等数据源间的数据交互,集数据同步、迁移、订阅、集成、加工于一体,帮助您构建安全、可扩展、高可用的...

添加ClickHouse数据

网络 数据源可选的网络类型。域名 连接数据库的地址。重要 该地址是DataV服务器能够通过公网或阿里云部分Region内网访问您数据库的域名或IP地址。端口 数据库设置的端口。用户名 登录数据库的用户名。密码 登录数据库的密码。数据库 单击 ...

SQL回放

当源OLTP库的数据迁移到目标OLAP库后,您可以使用 数据管理DMS 的SQL回放功能,查看源SQL在目标的兼容性及SQL性能对比的结果,帮助您提升OLAP库的测试效率。背景信息 OLTP是传统关系型数据库的主要应用,主要用于基本和日常的事务...

导入数据接口和请求数据接口区别

接口区别示意图 接口区别详细介绍 请求数据接口:重新请求服务端数据,上游 数据处理 节点或 图层节点 抛出的数据将作为参数。例如数字翻牌器配置了API数据源为 https://api.test ,传到请求数据接口动作的数据为 { id:"1"},则最终请求...

数据集成侧同步任务能力说明

在配置同步任务前,您需要确保数据集成资源组与您将同步的数据来源端与目标端网络环境已经连通,对应数据库环境与网络连通配置详情请参见:配置资源组与网络连通。数据同步场景 全增量同步任务支持单表数据同步至目标端单表、分库分表数据...

查看数据迁移项目的详情

在 全量迁移性能 页签,您可以图形化查看 源 RPS、目标 RPS、源迁移流量、目标迁移流量、源平均读取时间、源平均切片时间 和 目标平均写入时间,以及性能基准等性能数据,帮助您有效识别性能相关问题。全量迁移加上增量同步...

创建自建数据库用户及授权

MySQL 数据库作为目标的权限说明 MySQL 数据库作为目标时,迁移用户需要具备目标端数据库的 CREATE、CREATE VIEW、INSERT、UPDATE 和 DELETE 权限。GRANT<privilege_type>ON<database_name>.<table_name>TO '<user_name>'@'<host_name>...

用户权限说明

OceanBase 数据库 MySQL 租户作为源的权限说明 OceanBase 数据库 MySQL 租户作为源时,迁移/同步用户需要如下权限:目标为 Kafka、DataHub 和 RocketMQ 等消息队列类型时,需要对源待同步数据库具备 SELECT 权限。目标为 MySQL ...

执行增量 DDL 评估

目标端数据库类型 从下拉列表选择目标数据库类型,目前仅支持 OceanBase 数据库 MySQL 租户(简称 OBMySQL)。目标端数据库版本 从下拉列表选择目标数据库版本。DDL 内容 输入需要评估的 DDL 语句。说明 如果基于已有表进行调整,...

数据集成审批策略

背景信息 支持管理员按 源、目的 数据源的组合来定义需要被审批的数据集成任务,包括:在数据集成或数据开发页面保存任务等操作。例如,管理员定义了 mysql_1 数据源作为源、odps_1 数据源作为目的数据集成任务审批策略,则开发...

迁移时源库为MongoDB的注意事项及限制

若目标有与源相同的主键,请在不影响业务的前提条件下清空目标的相关数据(删掉目标中与源相同_id的文档)。特殊情况 当源库为自建MongoDB时,在迁移时,如果源库进行主备切换,将会导致迁移任务失败。MongoDB(副本集架构)迁移...

附录:消息格式

op 对应源读取到的消息类型,取值如下:INSERT:数据插入 UPDATE_BEFOR:数据更新前 UPDATE_AFTER:数据更新后 DELETE:数据删除 TRANSACTION_BEGIN:数据库事务开始 TRANSACTION_END:数据库事务结束 CREATE:数据库建表 ALTER:数据库...

数据集成支持的数据

数据源类型 数据源 相关文档 来源端数据源 MySQL、Oracle、Microsoft SQL Server、OceanBase、IBM DB2、MaxCompute、FTP。创建MySQL数据源。创建Oracle数据源。创建Microsoft SQL Server数据源。创建OceanBase数据源。创建IBM DB2数据源。...

使用数据传输同步数据

数据同步能够保持源和目标数据一致性,实现关键业务的数据实时流动。本文以同步 OceanBase 数据库的数据至 Kafka 为例,介绍如何使用数据传输同步数据。前提条件 在同步数据之前,您需要确认以下信息:数据传输已具备云资源访问权限...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用