应用场景

大数据场景 云数据库HBase支持海量全量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及全量数据通道,可轻松Spark、MaxCompute等大数据平台集成,完成数据规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

典型场景

大数据分析平台 对于MaxCompute、Hadoop和Spark中保存的海量数据,可通过采用数据集成服务(DataX)或通过对象存储服务(OSS),快速批量导入到 云原生数据仓库AnalyticDB PostgreSQL版,帮助您实现高性能分析处理和在线数据探索。数据湖...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将...MaxCompute处理业务数据和日志数据后,可以通过Quick BI快速地以可视化方式展现数据处理结果,详情请参见 基于MaxCompute的大数据BI分析。

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

数据变更最佳实践

批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...

配置ArgoDB输出组件

配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...

查看敏感数据识别结果

仅支持在 结构化数据、半结构化数据、非结构化数据大数据 分类下分别选择一个或多个数据类型,不支持跨分类同时选择多个数据类型。如果您未选中任意数据类型,数据安全中心默认展示所有数据类型下的敏感数据识别结果。数据模板:在 ...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...

使用场景

包含但不限于如下场景:数据迁移同步 使用DMS任务编排配置和管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗加工 DMS任务编排可以用于数据清洗和加工任务...

后续指引

介绍:数据迁移 实践:数据迁移最佳实践 常见问题:数据上传下载常见问题 规模数据迁移 MaxCompute提供MMA(MaxCompute Migration Assist)迁移工具支撑规模数据迁移。开发分析 数据类型 MaxCompute支持三种数据类型版本,为您介绍各...

Quick BI连接MaxCompute

背景信息 智能分析套件Quick BI是一个专为云上用户量身打造的易上手、性能强的大数据分析及可视化平台,可以让每个人都能成为数据分析师。Quick BI不仅是业务人员查看数据的工具,更是数据化运营的助推器。更多Quick BI信息,请参见 Quick ...

数据类型版本说明

MaxCompute目前提供了三种不同类型的数据类型版本,包括1.0数据类型、2.0数据类型以及Hive兼容数据类型,您可以根据业务需求选择合适的数据类型版本。本文为您介绍三种数据类型版本、选择数据类型版本以及查看和修改项目的数据类型版本。...

Transaction Table2.0概述

现状分析 当前典型的数据处理业务场景中,对于时效性要求低的规模数据全量批处理的单一场景,直接使用MaxCompute足以很好的满足业务需求,对于时效性要求很高的秒级实时数据处理或者流处理,则需要使用实时系统或流系统来满足需求。...

开发前准备:绑定数据源或集群

若您要在DataWorks中进行数据建模、数据开发或使用运维中心周期性调度任务,需先将已创建的数据源或集群绑定至数据开发(DataStudio)模块。绑定后,才可读取数据源或集群中的数据,并进行相关开发操作。前提条件 您需根据后续要开发和调度...

数据重排

在MaxCompute的使用过程中,如果已经积累了大量数据占用了大量存储资源,且已经通过削减数据存储生命周期和删除非必要数据等方式进行了治理,在您的存储预算有限,计算资源还有冗余的情况下,可以考虑使用数据重排方式对存储空间进行优化。...

发展历程

中国数字化转型创新案例大会:年度大数据创新产品奖。国家大数据博览会十佳产品:最佳案例实践奖。2017年 TPC的benchmark适配MaxCompute,进行了全球首次基于公共云的BigBench大数据基准测试,数据规模拓展到100 TB,成为首个突破7000分...

必读:简单模式和标准模式的区别

若创建数据源时,开发环境生产环境创建不同的数据源,那么在DataWorks开发环境是否可访问生产环境下的表、资源、函数等,与数据源本身特性有关。标准模式工作空间下,开发环境的任务默认不进行周期调度,仅发布至生产环境后可进行周期...

Oracle同步至Tablestore

本实践以Oracle作为来源数据源,以Tablestore作为去向数据源,因此您需要在DataWorks的工作空间的 数据源管理 页面新增Oracle数据源和Tablestore数据源,两个数据源支持的数据同步能力请参见 Oracle数据源、Tablestore数据源。已购买独享...

数仓规划概述

使用DataWorks进行数据建模时,数仓架构师或者模型小组成员可以在数仓规划页面对数据分层、业务分类、数据域、业务过程、数据集市、主题域进行设计。完成设计后,模型设计师在建模过程中可以依赖数仓规划中的数据分层、业务分类、数据域、...

数据安全治理的必要性

其中,第4条“维护数据安全,应当坚持总体国家安全观,建立健全数据安全治理体系,提高数据安全保障能力”和第7条“国家保护个人、组织与数据有关的权益,鼓励数据依法合理有效利用,保障数据依法有序自由流动,促进以数据为关键要素的数字...

场景:配置增量数据离线同步任务

离线同步任务支持您通过配置类似的数据过滤功能来决定同步全量数据还是增量数据,配置过滤条件时,将只同步满足过滤条件的数据。同时,过滤条件可以结合调度参数使用,实现过滤条件随任务调度时间的动态变化,进而实现增量数据的同步。该...

元数据采集

DataWorks数据地图为您提供 元数据采集 功能,方便您将不同系统中的元数据进行统一汇总管理,您可以在数据地图查看从各数据源汇集而来的元数据信息。本文为您介绍如何创建采集器,将各数据源的元数据信息汇集至DataWorks。前提条件 您需要...

数据模型架构规范

数据层次的划分 ODS:Operational Data Store,操作数据层,在结构上其源系统的增量或者全量数据基本保持一致。它相当于一个数据准备区,同时又承担着基础数据的记录以及历史变化。其主要作用是把基础数据引入到MaxCompute。CDM:Common ...

创建AnalyticDB for PostgreSQL数据

进行数据同步:DataWorks的数据集成模块为您提供读取和写入数据至AnalyticDB for PostgreSQL的能力,您可将其他数据源的数据同步至当前AnalyticDB for PostgreSQL数据源,或将当前AnalyticDB for PostgreSQL数据源的数据同步至其他数据源。...

创建AnalyticDB for MySQL3.0数据

进行数据同步:DataWorks的数据集成模块为您提供读取和写入数据至AnalyticDB for MySQL3.0的能力,您可将其他数据源的数据同步至当前AnalyticDB for MySQL3.0数据源,或将当前AnalyticDB for MySQL3.0数据源的数据同步至其他数据源。...

网络连通解决方案

添加数据源时需要根据数据源所在网络环境,通过对应的网络解决方案,实现Dataphin与数据源的网络连通。本文为您介绍数据源在不同网络环境中Dataphin的网络连通方案。网络连通方案 根据数据源所在的网络环境,在下图中选择对应的网络连通...

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

配置SQLServer数据

您需要测试每个资源组的连通性,以保证同步任务使用的数据集成资源组能够与数据源连通,否则将无法正常执行数据同步任务。如果您需要同时测试多种资源组,请选中相应资源组后,单击 批量测试连通性。详情请参见 配置资源组网络连通。说明...

支持的云服务

基于MaxCompute的数据仓库能力,您可以阿里云其他产品集成,实现可视化开发、数据存储、数据迁移、机器学习、业务决策等能力,构建满足实际业务需求的解决方案。本文为您介绍支持MaxCompute集成的各阿里云产品信息。MaxCompute支持集成...

加速服务

数据服务支持对部分数据源表的查询提供加速能力,加速能力包含DataWorks数据服务提供的加速能力和MaxCompute本身支持的加速方案(MCQA)。通过使用加速服务,您可以在调用API时提高数据查询的速率和性能。本文为您介绍两种加速方案的使用...

数据保护机制

在实际业务处理过程中,用户可能会同时具备多个项目的访问权限,此时会存在数据在项目间流转的安全问题。MaxCompute提供了数据保护机制,支持对数据流出行为进行控制,为项目数据的安全性提供保障。本文为您介绍MaxCompute的数据保护机制...

数据标准

数据标准落标说明 数据标准落标的意义在于从源头进行数据的标准化生产,加速数据的融合统一的效率,节省大量数据应用和处理的成本。完成以下操作实现数据标准落标:您可以在 字段编辑器 页面,编辑 中文名,输入拼音首字母即可快速检索出...

上传数据

您可以选择按位置匹配或按名称匹配两种方式来匹配待上传的数据与MaxCompute表字段的对应关系。完成后,界面提示数据导入成功,您即完成了从本地上传数据至MaxCompute表中,您可以在临时查询页面中查看已上传的数据,操作请参见 创建临时...

DescribeColumns-查询数据资产表中列的数据

调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。接口说明 本接口一般用于敏感数据资产信息表中列数据的查看,便于用户准确的对敏感数据进行分析。注意事项 DescribeColumns 接口已修订为 ...

概述

在需要将部分数据与第三方分享时,用户希望在不泄漏自身密钥的前提下完成加密数据的分享,同时满足合规要求。注意事项 加密规则在主地址上不生效,您需要使用集群地址或自定义集群地址。当前只支持普通的 COM_QUERY ,不支持 ...

DataWorks产品安全能力介绍

数据列级别多级审批:基于底层大数据引擎的访问控制列表与数据分级分类,DataWorks支持按项目与数据分级分类,定义数据列的权限申请及审批策略。说明 仅DataWorks企业版支持您根据业务需要自定义审批流程。数据质量规则:支持管理员配置...

如何对JSON类型进行高效分析

PolarDB 列存索引(In Memory Column Index,IMCI)功能推出了完备的虚拟列与列式JSON功能等,可以快速处理数据和多种数据类型(包括结构化数据与半结构化数据等),并提供高效的数据分析、查询与流计算能力,适用于数据分析、数据仓库与...

C3P0 连接池连接 OceanBase 数据库示例程序

c3p0-config.xml 文件是 C3P0 连接池配置文件,用于配置与数据库的连接相关的属性。通过设置各个元素的值,可以配置数据库驱动、连接 URL、用户名、密码、连接池大小等属性。本文 c3p0-config.xml 文件的代码主要包括以下几个部分:文件...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用