支持的云服务

数据集成 MaxCompute可以通过数据集成功能加载不同数据源(例如MySQL数据库)的数据,也可以通过数据集成把MaxCompute的数据导出到各种业务数据库。数据集成功能已集成在DataWorks上,您可以直接在DataWorks上配置MaxCompute数据源并读写...

备份及恢复速率

本文的备份和恢复速率是在实验室测试环境下的数据,仅供您参考。在实际使用中,由于网络、带宽等因素,备份和恢复速率会有一定的差异。重要 本文的备份和恢复速率是在实验室测试环境下的数据,仅供您参考。在实际使用中,由于网络、带宽等...

什么是OceanBase

OceanBase具有数据强一致、可用、性能、在线扩展、高度兼容SQL标准和主流关系型数据库、低成本等特点。OceanBase至今已成功应用于支付宝全部核心业务:交易、支付、会员、账务等系统以及阿里巴巴淘宝(天猫)收藏夹、P4P广告报表等业务...

数据

背景信息 数据域是一个较层次的数据归类标准,是对企业业务过程进行抽象、提炼、组合的集合,是企业业务人员在使用数据时第一个分组入口,可以帮助企业业务人员快速的从海量的数据中快速圈定到自己的业务数据。由上图所示,数据域规划...

数仓规划概述

数据数据域是一个较层次的数据归类标准,是对企业业务过程进行抽象、提炼、组合的集合,是企业业务人员在使用数据时第一个分组入口,可以帮助企业业务人员快速的从海量的数据中快速圈定到自己的业务数据。详情请参见 数据域。业务过程...

概述

数据数据域是一个较层次的数据归类标准,是对企业业务过程进行抽象、提炼、组合的集合,是企业业务人员在使用数据时第一个分组入口,可以帮助企业业务人员快速的从海量的数据中快速圈定到自己的业务数据数据域面向业务分析,一个...

数据源中心

EMR Workflow的数据源中心支持配置数据源,以满足不同的数据存储和访问需求。本文为您介绍如何创建、编辑和删除数据源。使用限制 数据源所在的集群和运行工作流时选择的集群需要在同一VPC下。创建数据源 进入数据源中心页面。使用阿里云...

从自建PostgreSQL(10.1~13版本)增量迁移至RDS ...

说明 为避免数据迁移对业务的影响,请在业务低峰期执行数据迁移,您还可以根据源库的读写压力情况调整迁移速率,详情请参见 调整全量迁移速率。增量数据迁移阶段不支持迁移bit类型的数据。由于业务切换到目标端后,新写入的Sequence不会...

常见问题

数据安全中心DSC根据为不同行业预先定义的敏感数据关键字段,扫描MaxCompute、OSS、阿里云数据库服务(RDS、PolarDB-X、PolarDB、OceanBase、表格存储等)和自建数据库中的数据,通过敏感数据规则,判断和打标敏感数据,为数据安全审计、...

基本概念

数据资产:数据资源平台中存在大量的数据表、标签、API等各类数据资产,数据管理者通过数据汇聚、数据治理、数据分析后,需要对整个平台数据进行统一管控,了解平台的核心数据资产,提供对应的数据资产管理规范。统一服务 应用:是调用API...

数据建模:智能数据建模

智能数据建模是阿里云DataWorks自主研发的智能数据建模产品,沉淀了阿里巴巴十多年来数仓建模方法论的最佳实践,包含数仓规划、数据标准、维度建模及数据指标四大模块,帮助企业在搭建数据中台、数据集市建设过程中提升建模及逆向建模的...

管理数据

数据集是基于特定数据库和SQL查询生成,并且以二维表呈现的一种数据集合。本文介绍创建、编辑、删除数据集的方法。注意事项 数据分析后续所有的分析工作、仪表盘制作和大屏制作都是基于数据集进行的,因此在进行其他功能前,必须先创建数据...

创建StarRocks数据

背景信息 StarRocks是一款性能分析数据库,支持实时、多维和高度并发的数据分析。StarRocks具有高度可扩展性、可用性且易于维护。它在OLAP场景提供多种支持,例如实时分析、即席查询、数据湖分析等。更多详情可参考 StarRocks官网。权限...

数据迁移与同步FAQ

本文为您列出数据迁移与数据同步的常见问题和相关解答。什么是数据迁移、数据同步?DTS的数据迁移与数据同步工作原理是什么?DTS的数据迁移与数据同步有什么区别?使用DTS遇到预检查报错,如何解决?什么是数据迁移、数据同步?数据迁移:...

创建StarRocks数据

背景信息 StarRocks是一款性能分析数据库,支持实时、多维和高度并发的数据分析。StarRocks具有高度可扩展性、可用性且易于维护。它在OLAP场景提供多种支持,例如实时分析、即席查询、数据湖分析等。更多详情可参考 StarRocks官网。权限...

MySQL整库离线同步到OSS

并发数大,同步任务速率高,但相对也会消耗更多的资源组槽位,并发数小,同步速率相对较低,相对消耗的资源组槽位也较少 离线任务是否开启限流 您可以通过限流控制同步速率,以保护读取端数据库,避免抽取速度过大,给源库造成太大的压力,...

数据标准

数据是由特定的环境产生的,这些环境因素包括生产者、时间、系统等,从而造成了同一个语义的数据,有多种不同的定义方法,给后期进行数据汇集和整合带来障碍。因此,数据处理的前奏就是数据标准化,数据标准作为一个统一的数据共识,在标准...

外部数据

不管使用什么外部数据包装器,本数据库会要求外部数据包装器从外部数据源获取数据,或者在更新命令的情况下传送数据到外部数据源。访问远程数据可能需要在外部数据源的授权。这些信息通过一个用户映射提供,它基于当前的本数据库角色提供了...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...

调试实时任务

Dataphin支持对开发的实时任务代码进行数据采样或者手动上传并进行本地调试,以帮助您保障代码任务的正确性,避免人为错误或遗漏。本文将为您介绍如何调试实时任务。使用限制 Blink仅支持引擎版本3.6.0及以上进行本地调试。不支持...

调试实时任务

Session集群调试方式:即通过Session集群进行调试,调试的数据为 线上的真实数据 且为 流式数据(即来源表中写入数据时,将直接输出该条数据的计算结果,与真实线上运行任务的结果一致)。该方式下,Session集群提供Flink任务状态、日志和...

数据归档概述

当线上数据库中的历史数据(访问率很低的数据)越来越多,占用的存储越来越大,以至于会影响数据库的查询性能与业务运转,此时您可以使用 数据管理DMS 的数据归档功能,周期性地将指定表的数据归档至其他数据库或存储服务中。同时,该功能...

离线同步并发和限流之间的关系

数据集成在编排执行计划时,每个并发分片的速率是(作业速率/作业并发数,计算的分片速度向上取整),分片限速下限是 1MB/s。故任务实际运行的速率上限是任务实际并发数*每个分片的实际限速。针对限流场景,举几个常见案例介绍如下:用户...

图扑案例

客户感言 阿里 云原生多模数据库 Lindorm 针对工业物联网数据高并发写入,实时存取等特点,创新性地融合时序、索引、宽表等多模引擎能力,为存储、分析低价值密度、高通量、实时性的工业物联网监控数据提供了性价比的最优解决方案,大...

模板渲染速率提升详解

在移动端,如果是面向普通C端用户的模板,20帧左右的帧速率是一个合适的帧速率,不需要设置的过。设置合适的画面大小 这里的画面大小不光是最终主合成的大小,而是指模板中包含的所有图层和预合成的大小。不能只觉得主合成的尺寸小,渲染...

标准架构

Tair 标准架构具有数据高度一致、架构简单、性价比高等特点,可满足多种场景下的需求,但标准架构不支持增加数据分片或只读节点,仅提供可用(双副本)与单副本实例类型。说明 如需增加数据分片或实现读写分离,请选择 集群架构 或 读写...

创建数据

数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据流和配置的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

数仓分层

基于阿里巴巴OneData方法论最佳实践,在阿里巴巴的数据体系中,建议将数据仓库分为三层:数据引入层(ODS,Operational Data Store)、数据公共层(CDM,Common Dimensions Model)和数据应用层(ADS,Application Data Store)。数据仓库...

管理数据

企业管理员使用数据域可以基于业务属性、组织架构、数据特征等维度对数据资产进行分类管理。通过将拥有共同属性的数据资产集中到同一个数据域中,管理员可以高效管理数据资产及资产中的敏感数据。本文介绍首次使用数据域功能的具体操作。...

数据加工仪表盘

如果处理的是历史日志数据,在任务开始的阶段消费延迟可能会很,随着数据加工的进行,消费进度不断追赶最终达到低延迟水平。活跃shard 展示最近一段时间内发生,shard每秒处理的日志行数(accept、dropped、delivered、failed)。异常...

新功能发布记录

开启安全访问代理 接入达梦数据库 新增 全面直接接入达梦数据库(DM),包括数据导入、数据查询、数据变更、数据导出、数据服务与数据可视化等功能。支持的数据库类型与功能 数据类目 新增 对表进行分类,便于管理人员、开发人员及运维人员...

常见问题

在将数据导入至MergeTree表的时候,初始时后台线程可能找不到任何可以进行Merge的Data Part,此时所有的资源都在处理导入的数据从接收到刷写到磁盘这一步骤,所以导入数据速率相对来说比较。导入数据一段时间后,由于越来越多Data Part...

RDS MySQL实例间的迁移

类型 说明 源库限制 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。如迁移对象为表级别,且需进行编辑(如表列名...

RDS SQL Server I/O问题

数据页读取I/O吞吐 数据页读取(Page Reads)的I/O吞吐高是导致RDS SQL Server实例I/O吞吐高的原因中最常见的一种,主要原因是实例的缓存不足,导致查询请求在执行过程中由于缓存无法命中(cache miss),从而需要在磁盘中读取大量的数据...

PolarDB PostgreSQL版(兼容Oracle)间迁移

类型 说明 源库限制 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。待迁移的表需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。如迁移对象为表级别,且需进行编辑(如表列名...

从Amazon RDS SQL Server全量迁移至阿里云

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

自建SQL Server同步至PolarDB MySQL版

如为增量同步任务,DTS要求源数据库的数据日志保存24小时以上,如为全量同步和增量同步任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量同步完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

RDS SQL Server同步至云原生数据仓库 AnalyticDB ...

数据传输服务DTS(Data Transmission Service)支持将 RDS SQL Server 同步至 云原生数据仓库AnalyticDB MySQL版 3.0,帮助您轻松实现数据的传输,用于实时数据分析。前提条件 已创建源 RDS SQL Server 实例,支持的版本,请参见 同步方案...

数据投递

数据传输服务DTS(Data Transmission Service)提供的数据投递功能,用户可以通过SDK将各种类型的数据源投递到DTS,再由DTS同步至目标数据库,从而支持更多类型的数据源。应用场景 数据投递功能适用于以下任一场景:源端为DTS同步方案暂不...

MySQL实例间的双向同步

数据传输服务DTS(Data Transmission Service)支持MySQL实例间的双向同步。支持的源和目标数据库 MySQL间同步支持以下源或目标数据库。本文以 RDS MySQL 实例为源和目标数据库介绍配置流程,其他数据源配置流程与本案例类似。源数据库 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 Redis 版 云数据库 RDS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用