DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与...
DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台,为了便于新用户快速了解DataWorks的数据开发治理操作全流程,DataWorks为您提供了...
支持的数据库部署位置(接入方式)阿里云实例 有公网IP的自建数据库 通过数据库网关DG接入的自建数据库 通过云企业网CEN接入的自建数据库 ECS上的自建数据库 通过专线/VPN网关/智能接入网关接入的自建数据库 阿里云实例 通过数据库网关DG接...
DataWorks基于MaxCompute等引擎,提供统一的全链路大数据开发治理平台。本文为您介绍如何通过DataWorks使用MaxCompute服务。背景信息 DataWorks支持将计算引擎绑定至DataWorks的工作空间,绑定计算引擎后,您即可在DataWorks上创建对应引擎...
教程简介 阿里云DataWorks基于多种大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。本教程通过DataWorks,联合云原生大数据计算服务MaxCompute,使用大数据AI公共数据集(淘宝、飞猪、阿里音乐、...
现状分析 当前典型的数据处理业务场景中,对于时效性要求低的大规模数据全量批处理的单一场景,直接使用MaxCompute足以很好的满足业务需求,对于时效性要求很高的秒级实时数据处理或者流处理,则需要使用实时系统或流系统来满足需求。...
大数据专家服务 大数据专家服务(Bigdata Expert Service)是由阿里云大数据专家基于阿里云多年大数据架构、应用、运维、AI算法建模等最佳实践经验及方法论为用户提供全方位的大数据产品技术、咨询服务及售后专家服务运维保障,帮助用户...
在集团,依托全网覆盖的数据库自治能力,自动SQL优化已累计实现超4900万慢SQL自动优化,自动空间优化累计优化超4.6P,自动异常修复覆盖电商等多场景数十万实例,自动处理异常覆盖超90%,实现“1-5-10”异常自愈能力,即1分钟发现,5分钟...
查看备份大小 备份大小=全量数据备份的大小+增量数据备份的大小 登录 DBS控制台。单击左侧导航栏中的 备份计划,然后在上方选择目标地域。单击目标备份计划名称,进入 备份任务配置 页面。在 付费信息 区域,查看全量备份数据量和增量备份...
云数据库HBase存储海量大数据,在业务场景中往往承载着重要数据,为保障数据的高可用性和安全性,云数据库HBase提供了主备双活和主备容灾特性。本文介绍云数据库HBase的主备双活和主备容灾特性功能。使用场景 主备双活:大数据量随机读响应...
DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建Redis数据库的迁移上云。前提条件 自建Redis数据库版本为2.8、3.0、3.2、4.0、5.0、6.0。自建Redis数据库为单机架构,暂不...
DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建Redis数据库的迁移上云。前提条件 已创建源自建Redis实例和目标 云原生内存数据库Tair。目标 云原生内存数据库Tair 实例的...
DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建Redis数据库的迁移上云。本文是以新版数据传输服务DTS(Data Transmission Service)控制台为例,旧版数据传输服务DTS...
DTS支持全量数据迁移和增量数据迁移,同时使用这两种迁移类型可以实现在不停服的情况下,平滑地完成腾讯云MongoDB数据库的迁移。背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 增量数据迁移 方法,...
DTS支持全量数据迁移和增量数据迁移,同时使用这两种迁移类型可以实现在不停服的情况下,平滑地完成腾讯云MongoDB数据库的迁移。背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 增量数据迁移 方法,...
对于大量的数据,建议您使用全量物理备份来恢复数据到新的实例中,然后通过数据传输服务DTS将数据 迁移回原有实例。更多数据恢复方案,请参见 恢复方案概览。前提条件 已 逻辑备份PostgreSQL数据。注意事项 恢复数据时连接的数据库建议不要...
本文介绍如何使用数据传输服务DTS(Data Transmission Service),将3.2版本的腾讯云MongoDB副本集实例全量迁移至阿里云。背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 全量数据迁移 方法,将3.2...
本文介绍如何使用数据传输服务DTS(Data Transmission Service),将3.2版本的腾讯云MongoDB副本集实例全量迁移至阿里云。背景信息 当您因业务调整或需要使用阿里云MongoDB特性功能时,您可以使用DTS工具,通过 全量数据迁移 方法,将3.2...
在开发过程中我们通常会碰到需要迁移数据的场景,本文介绍如何将自建集群数据迁移到E-MapReduce集群中。背景信息 适用范围:线下Hadoop到E-MapReduce迁移。线上ECS自建Hadoop到E-MapReduce迁移。迁移场景:HDFS增量上游数据源包括RDS增量...
全量校验 在全量迁移完成、增量数据同步至目标端并与源端基本追平后,数据传输会自动发起一轮针对源端数据库配置的数据表和目标表的全量数据校验任务。说明 如果您选择了 增量同步,且 DML 同步 选项中未选择所有的 DML,则数据传输不支持...
由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,或者...
注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...
本文介绍DTS全量同步或迁移慢的常见原因,以及相应的解决方法。您可以逐一排查这些原因,并根据解决方法恢复任务。问题现象 DTS在全量数据同步或迁移阶段时,可能会出现耗时很久的现象,或者出现任务卡住的迹象。可能原因 源库待同步或迁移...
由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源数据库的表存储空间大。DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,...
由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源数据库的表存储空间大。DTS会尝试恢复七天之内迁移失败任务。因此业务切换至目标实例前,请务必结束或释放该任务,...
由于全量数据迁移会并发执行INSERT操作,导致目标数据库的表产生碎片,因此全量迁移完成后目标数据库的表存储空间会比源实例的表存储空间大。请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过 ROUND(COLUMN,...
DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建Redis数据库的迁移上云。前提条件 已创建源自建Redis实例和目标阿里云Redis实例。目标阿里云Redis实例的创建方式,请参见 ...
背景信息 在数据传输控制台创建从 OceanBase 数据库 Oracle 租户迁移数据至 Oracle 数据库的数据迁移项目,您可以通过结构迁移、全量迁移和增量同步,无缝迁移源端数据库中的存量业务数据和增量数据至 Oracle 数据库。同时,数据传输支持将...
本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...
全量初始化会并发执行INSERT操作,导致目标数据库的集合产生碎片,因此全量初始化完成后目标实例的集合空间比源实例的集合空间大。若目标集合存在唯一索引或目标集合的 capped 属性为 true 时,则在增量同步阶段该集合不支持并发回放(只...
全量初始化会并发执行INSERT操作,导致目标数据库的集合产生碎片,因此全量初始化完成后目标实例的集合空间比源实例的集合空间大。若目标集合存在唯一索引或目标集合的 capped 属性为 true 时,则在增量同步阶段该集合不支持并发回放(只...
脏数据限制设置为多少就是不允许有多少条脏数据,若限制为0即在发现第一条脏数据时就会停止任务,此时有可能已经传几条数据了,或者没有传输数据(脏数据在所有数据中位于第一条时)。如何排查离线同步任务运行时间长的问题?可能原因1:...
这种情况下可以先用少量的数据进行测试,当-td 及-fd 调试成功后再上传全量数据。使用Tunnel Upload命令上传数据时,需要上传很多数据文件到一个表中,是否有方法写一个脚本就可以把文件夹下的所有数据文件上传上去?Tunnel Upload命令支持...
在一些数据同步场景,脏数据的出现会导致任务同步效率下降,以关系数据库写出为例,默认是执行batch批量写出模式,在遇到脏数据时会退化为单条写出模式(以找出batch批次数据具体哪一条是脏数据,保障正常数据正常写出),但单条写出效率会...
数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围大的数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...
分布式执行加速索引创建 分布式并行执行加速多模:时空数据库 传统数据库的问题 随着用户业务数据量越来越大,业务越来越复杂,传统数据库系统面临巨大挑战,例如:存储空间无法超过单机上限。通过只读实例进行读扩展,每个只读实例独享一...
加速比 TPC-H性能:和传统MPP数仓对比 分布式执行加速索引创建 分布式并行执行加速多模:时空数据库 传统数据库的问题 随着用户业务数据量越来越大,业务越来越复杂,传统数据库系统面临巨大挑战,例如:存储空间无法超过单机上限。...
RDS PostgreSQL支持pgvector插件,提供了一个新的数据类型,能够方便快捷地对高维向量进行检索,是一款功能强大的向量相似度匹配搜索插件。背景 RDS PostgreSQL支持pgvector插件,能够存储向量类型数据,并实现向量相似度匹配,为AI产品...
目标端表对象存在记录时处理策略 选择 忽略:目标端表对象存在数据时,如果原数据与写入数据冲突,数据传输采用将冲突数据记录日志,保留原数据不变的策略进行数据写入。重要 选择 忽略,全量校验将使用 IN 模式拉取数据,无法校验目标端多...
本文为您介绍如何同步 OceanBase 数据库 MySQL 租户的数据至云原生数据仓库 AnalyticDB MySQL 版。背景信息 AnalyticDB MySQL 版的基本介绍请参见 基础数据类型。AnalyticDB MySQL 版的建表、分区表和分布表的详情请参见 CREATE TABLE。...