概述

业务挑战 部分阿里云用户会将阿里云关系型数据库RDS、PolarDB for MySQL、MongoDB或者云服务器ECS自建数据库作为业务系统数据库,随着业务数据的增长,业务数据库存储的数据也越来越多。但RDS、PolarDB for MySQL、MongoDB或者ECS自建...

生成测试数据

模拟生成数据量 指定需要生成的数据量。默认值:1000 条数据,最多生成不超过 100W 行数据,所以用户可以在文本框中输入 1\~1000000 间的任意正整数。批处理大小 指定每生成多少条数据进行一次提交(COMMIT 命令)操作。默认每生成 200 条...

索引优化

数据集场景下优先考虑稀疏索引:如果您的数据量非常地大,并且您的查询限定条件为<、、=、>=、>,需要数据量的表中取出少于50%的数据,那么使用稀疏索引(BRIN Index或者AOCS表的metascan)可以极地减少无效数据的加载。...

配置跨库Spark SQL节点

在线业务会产生大量的数据,当需要对这些数据进行加工分析时,一般需要将在线业务的数据同步到专门用于数据加工和分析的数据仓库,再进行数据分析。数据仓库的数据回流到在线库,用于数据查询。在数据仓库中对数据进行加工分析后,往往需要...

升级数据库版本

本文介绍云数据库MongoDB支持升级的数据版本以及如何升级数据库版本。注意事项 升级分片集群实例的数据版本时,实例的协议类型需为 MongoDB协议。升级采用轮转升级的方式进行,升级过程中会自动对实例进行2~3次重启,请在业务低...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

受众与核心能力

数据地图(公共云)/数据管理(专有云):提供强大的数据搜索、数据类目、数据血缘等能力。数据资产管理(仅专有云):统一管理整个平台的数据表、API等各类数据资产。数据安全:数据脱敏、权限控制等能力。应用开发(仅公共云):基于Web...

配置MySQL输出组件

同步其他数据源的数据至MySQL数据源的场景中,完成源数据源的信息配置后,需要配置MySQL输出组件的目标数据源。本文为您介绍如何配置MySQL输出组件。前提条件 已创建MySQL数据源,详情请参见 创建MySQL数据源。进行FTP输出组件属性配置的...

配置Hive输出组件

同步其他数据源的数据至Hive数据源的场景中,完成源数据源的信息配置后,需要配置Hive输出组件写入数据的目标数据源。本文为您介绍如何配置Hive输出组件。使用限制 Hive输出组件支持写入文件格式为 orc、parquet、text、iceberg(iceberg...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

新建数据字典

数据字典管理支持创建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度的值域设置中引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。本文为您介绍如何...

新建数据字典

数据字典管理支持创建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度的值域设置中引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。本文为您介绍如何...

创建RDS MySQL数据订阅通道

如果订阅的源数据库还处于其他任务中(例如该数据库还存在于某个正在运行的数据迁移任务中),您可能会订阅到订阅对象以外的数据,此类场景中,您需要手动在订阅客户端中过滤掉不需要的数据。操作步骤 购买数据订阅通道,详情请参见 购买...

什么是数据库自治服务DAS

数据库的安全风险 随着数据价值的提升,企业的数据面临着越来越多的内部或者外部的攻击,数据泄漏、数据丢失等问题层出不穷。未授权或者不可预期或者错误的数据库访问和使用。数据泄漏。数据损坏。黑客攻击。软硬件bugs,导致数据异常。...

数据库导出

当您需要进行数据库备份、导出数据库表进行数据分析等操作,您可使用 数据管理DMS 的数据导出功能,该功能可通过提交工单的方式导出数据库。前提条件 数据库类型如下:MySQL系列:自建MySQL、RDS MySQL、PolarDB MySQL版、AnalyticDB ...

识别任务说明

需要导出的数据量越,导出需要的时间越长,请您耐心等待。等待导出状态为已完成时,单击目标导出任务 操作 列的 下载。重要 完成导出后,您需要在三天内下载导出的数据。超过三天导出任务会过期,您将无法下载导出的敏感数据。相关文档 ...

导出数据

您可以通过导出数据元功能,搭配导入功能,快速实现工作组间的数据元数据迁移。本文介绍如何导出数据元。...说明 若只需要导出部分数据元信息,在 数据元管理 页面,选中需要的数据元,单击 导出,即可导出需要的数据元信息。

导出数据

您可以通过导出数据元功能,搭配导入功能,快速实现工作组间的数据元数据迁移。本文介绍如何导出数据元。...说明 若只需要导出部分数据元信息,在 数据元管理 页面,选中需要的数据元,单击 导出,即可导出需要的数据元信息。

编辑数据

数据源添加完成之后,您可以根据大屏展示的需要,编辑数据源的内容。推荐在画布编辑页面编辑数据源。除了可以编辑数据源,还可以在该页面完成 数据映射、添加过滤器 和设定数据 自动更新 时间。操作步骤 登录 DataV控制台。参考 使用模板...

Iceberg概述

您可以借助Iceberg快速地在HDFS或者阿里云OSS上构建自己的数据湖存储服务,并借助开源数据生态的Spark、Flink、Hive和Presto等计算引擎来实现数据湖的分析。核心能力 Apache Iceberg设计初衷是为了解决Hive数仓上云的问题,经过多年迭代...

离线同步并发和限流之间的关系

限制和最佳实践:分布式执行模式下,配置较大任务并发度可能会对您的数据存储产生较大的访问压力,请评估数据存储的访问负载。如果您的独享资源组机器台数为1,不建议使用分布式执行模式,因为执行进程仍然分布在一台Worker节点上,无法...

常见问题

由于DTS的传输性能受DTS内部、源端和目标端数据库实例的负载、待传输的数据量、DTS实例是否存在增量任务、网络等多种因素影响,所以无法预估DTS任务所需的时间,若对性能有较高要求,建议选择性能上限较大的规格。关于规格的更多信息,请...

东软案例

企业面向客户、合作伙伴和内部员工建设IT系统及应用复杂度和数量会随着产品智能、互联化的深入持续增长,对映可用性保障运维监控采集数据采集种类,以及需要存储的数据量同步激增,现有监控系统基于RRD数据库或关系数据库搭建的单模引擎的...

轮播页面

再根据需要在蓝图编辑器配置页面的数据处理节点中更改对应样式的字段值。显示 显示组件,参考数据示例如下。return {"animationType":"","animationDuration":1000,"animationEasing":"linear"};隐藏 隐藏组件,参考数据示例如下。return {...

某网约车公司车辆轨迹数据

客户需要存储最近3年的数据但是最近一个月的数据访问很频繁。云原生多模数据库 Lindorm 支持OSS做为冷存储,这样业务上把一个月之前的数据(冷数据)全部通过Lindorm自动存储到OSS里面,最近一个月内的数据存储到高效云盘,这样在零代码...

轮播页面

再根据需要在蓝图编辑器配置页面的数据处理节点中更改对应样式的字段值。案例演示 本案例通过轮播列表的轮播功能,将链接到的网页内容展示在轮播页面组件上。登录 DataV控制台。选择任一数据看板,单击 编辑,进入画布编辑器页面。添加 ...

基于Delta lake的一站式数据湖构建与分析实战

2.统一元数据服务 对象存储本身是没有面向大数据分析的语义需要结合Hive Metastore Service等元数据服务为上层各种分析引擎提供数据的Meta信息。数据湖计算与分析 相比于数据仓库,数据湖以更开放的方式对接多种不同的计算引擎,如传统...

Delta Lake概述

背景信息 通常的数据湖方案是选取数据存储引擎构建数据湖(例如,阿里云对象存储OSS产品或云下HDFS),然后将产生的各种类型数据存储在该存储引擎中。在使用数据时,通过Spark或Presto对接数据分析引擎并进行数据解析。但该套方案存在...

导入概述

为了更好地满足各种不同的业务场景,StarRocks支持多种数据模型,StarRocks中存储的数据需要按照特定的模型进行组织。本文为您介绍数据导入的基本概念、原理、系统配置、不同导入方式的适用场景,以及一些最佳实践案例和常见问题。背景信息...

快速实现数据分类分级

识别任务所需时间和需扫描的数据量有关系,如果需扫描的数据量较时,需要花费较多时间,请您耐心等待。扫描状态为完成后,才可查看分类分级结果。说明 除系统默认任务外,您可以根据业务所处的行业将对应的行业模板设置为主用模板进行...

EMR+DLF数据湖解决方案

步骤三:初始化数据 初始化数据一般常见的几种情况如下:已有数据集群,需要进行数据迁移,此时可以考虑通过 Jindo DistCp 工具将老集群的数据迁移到OSS中。从RDS/MySQL/Kafka 等业务系统接入数据,此时可以考虑通过实时计算Flink实现...

DataWorks模块使用说明

使用流程概览:参考文档:DataWorks数据建模 子模块:数据开发(DataStudio)功能说明:数据开发(DataStudio)是一站式数据开发平台,支持在线开发MaxCompute、EMR、Hologres、CDP、ADB等多种数据引擎的数据处理任务。它集成了强大的...

管理数据

步骤一:添加数据域 添加数据域前,建议您根据业务单元或组织架构等规划需要添加的数据域名称和层级关系(最多支持创建三级数据域),然后重复执行以下步骤添加多个数据域。您也可以使用批量导入功能添加数据域。具体操作,请参见 更多操作...

IoT数据自动化同步至云端解决方案

但同步至数据系统或传统数据库的数据需要使用专业的数据同步系统。下图为您展示使用DataWorks数据集成完成OSS数据同步至数据系统的解决方案流程。新建离线同步节点,详情请参见 通过向导模式配置离线同步任务。选择数据来源OSS进行...

通过RAM角色授权模式配置数据

某企业有100个Bucket,存放该企业的所有数据,但数据团队只需要使用其中两个Bucket的数据。如果使用预设的 AliyunDataWorksAccessingOSSRole 角色,可能导致其它98个Bucket被数据团队访问,存在管理风险。因此,云账号负责人可以为...

导入数据至维表

创建完成维表后,您可以在维表中直接写入数据,也可以导入电子表格、本地CSV文件和Excel文件的数据至维表,为后续数据分析做准备。前提条件 已创建完成一个维表,详情请参见 创建维表。操作步骤 在 维表 页面,单击 全部维表 下相应的 文件...

适配组件数据

如果您的数据源为 CSV文件、数据库 等其他类型的数据需要首先 添加数据源。如果您需要使用的数据源为 API,直接在数据源配置栏输入API即可。具体配置API数据源时,是否选中 服务器代理请求 等操作,详情请参见 如何配置跨域数据。操作...

用户价值

数据开发更简单:平台提供的各种工具产品能够极大的简化数据开发过程,缩短数据治理周期,降低数据治理成本。通过标准化、精细化、规格化的智能数据生产流程,完成流水线式的数据生产作业,提升数据资源生产效率、消除数据供应品质差异。...

适配组件数据

如果您的数据源为 CSV文件、数据库 等其他类型的数据需要首先 添加数据源。如果您需要使用的数据源为 API,直接在数据配置栏输入API即可。具体配置API数据源时,是否选中 服务器代理请求 等操作,详情请参见 如何配置跨域数据。操作步骤 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据传输服务 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用