功能更新动态(2022年之前)

实时数据处理 数据集成 致力于提供具有强大的数据预处理能力、丰富的异构数据源之间数据高速稳定的同步能力。数据集成 告警中心 为您展示资产质量、实时计算、数据服务模块的告警事件、推送记录及值班表。告警中心 资产质量 为您提供全链路...

文档更新动态(2022年之前)

新功能 网络连通解决方案 2021年08月24日 数据服务:支持数据服务模块的数据查询加速、支持的数据源类型和版本拓展 为了满足对数据查询速度有要求的业务场景,Dataphin支持为项目添加加速计算源,且完成Dataphin数据源开发后,您可以手动...

DataWorks V3.0

E-MapReduce:E-MapReduce(Elastic MapReduce,简称EMR)构建在阿里云云服务器ECS上,基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其它周边系统(例如Hive),来分析和处理自己的数据大数据...

影响查询性能的因素

如果数据能够均匀分布在存储节点上,那么 AnalyticDB MySQL版 中的多个子任务在处理数据时,就能几乎同时结束任务,实现理想的查询处理;如果数据分布不均匀,那么子任务在处理数据时会存在时间上的长尾,从而影响最终的查询效果。数据量...

Delta Lake概述

实时机器学习:在机器学习场景中,通常需要花费大量的时间用于处理数据,例如数据清洗、转换、提取特征等等。同时,您还需要对历史和实时数据分别处理。而Delta简化了工作流程,整条数据处理过程是一条完整的、可靠的实时流,其数据的清洗...

填充数据库

第一次填充数据库时可能需要插入大量的数据。本节包含一些如何让这个处理尽可能高效的建议。1.禁用自动提交 在使用多个 INSERT 时,关闭自动提交并且只在最后做一次提交(在普通 SQL 中,这意味着在开始发出 BEGIN 并且在结束时发出 COMMIT...

添加处理数据数据管理

数据处理后,需要将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。本文以倾斜数据处理后为例,介绍如何添加处理数据数据管理。前提条件 已新建数据处理任务,具体操作,请参见 新建数据处理任务。操作...

DataWorks模块使用说明

使用流程概览:参考文档:DataWorks数据建模 子模块:数据开发(DataStudio)功能说明:数据开发(DataStudio)是一站式大数据开发平台,支持在线开发MaxCompute、EMR、Hologres、CDP、ADB等多种大数据引擎的数据处理任务。它集成了强大的...

应用场景

处理意味着每一次处理数据量很,而且有很多张大表要做关联,经常要做一些比较复杂的查询,并且更新量也比较,使得传统的集中式数据库,出现了单点瓶颈,垂直扩容成本非常高,几乎不可接受。OceanBase 数据库的 SQL 引擎在经过了近 ...

生成测试数据

背景信息 OceanBase 开发者中心(OceanBase Developer Center,ODC)提供模拟数据功能供用户在测试数据库性能或者验证功能等需要大量模拟数据的场景下,能够快速根据表中的字段类型生成数据。注意事项 单次模拟数据上限为 1 亿行。拥有检查...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

技术面临的挑战与革新

在分布式数据库中,同样也可以采用这种模式,将事务集中在一个节点处理,而这限制了事务处理的扩展能力,系统能处理的事务操作的数据范围受限于单个节点所能访问的数据范围,事务处理能力也受限于单个节点的处理能力。

新建数据处理任务

系统提供数据处理能力,包括倾斜数据处理、地形数据处理、三维模型处理、影像优化处理。本文以新建倾斜数据处理任务为例,介绍如何新建数据处理任务。前提条件 已添加空间元数据,具体操作,请参见 添加数据。已添加OSS类型云计算资源。...

流式ETL

实时数据集成:ETL强大的流式数据转换处理能力大幅提升数据集成效率,低代码的开发方式也进一步降低了数据集成的难度和成本,让企业专注于数据价值实现。实时数据仓库:行业领先的流数据处理能力帮助企业快速搭建实时数据仓库。离线数仓...

什么是ETL

实时数据集成:ETL强大的流式数据转换处理能力大幅提升数据集成效率,低代码的开发方式也进一步降低了数据集成的难度和成本,让企业专注于数据价值实现。实时数据仓库:行业领先的流数据处理能力帮助企业快速搭建实时数据仓库。离线数仓...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等一站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

什么是DataWorks

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与...

版本发布记录

接入DataWorks任务调度 接入DataWorks任务调度,使得用户能够可视化轻松定制数据湖分析的数据处理流程,实现云上大数据WorkFlow。接入函数计算 接入函数计算,使得用户能够基于这两款Serverless化云产品,构建云原生Serverless工作流。接入...

IoT数据自动化同步至云端解决方案

大数据分析是大数据完成数据价值化的重要手段之一,而进行大数据分析的第一步是让数据成功上云。解决方案 IoT数据自动化同步至云端解决方案主要包括存储原始数据和同步数据至分析系统两部分。IoT设备大量的数据通常以半结构化的形式存储。...

功能简介

数据处理 支持倾斜数据处理能力,可以将OSGB格式数据转化为S3M数据,再将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。支持对数据处理任务进行管理。支持查看数据处理任务详情,包括任务的基本信息、处理的...

空间数据(邀测中)

数据处理 支持倾斜数据处理能力,可以将OSGD格式数据转化为S3M数据,再将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。支持对数据处理任务进行管理。支持查看数据处理任务详情,包括任务的基本信息、处理的...

导入概述

异步导入 Spark Load 通过外部的Spark资源实现对导入数据的预处理,提高StarRocks大数据量的导入性能并且节省StarRocks集群的计算资源。Spark Load是一种异步导入方式,需要通过MySQL协议创建导入作业,并通过 SHOW LOAD 查看导入结果。...

DataWorks on EMR数据安全方案

大数据领域,阿里云为企业用户提供了一整套数据安全方案,包含用户认证、数据权限、大数据作业管理体系等。本文以联合使用DataWorks与EMR为例,为您介绍DataWorks on EMR场景下的数据安全方案。背景信息 DataWorks on EMR目前支持LDAP...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

相关的云服务

DataWorks作为阿里云一站式大数据开发与治理平台,通常会与计算引擎产品联合使用,此外使用DataWorks进行数据集成时通常联合进行数据传输的数据源产品一起使用。本文为您介绍典型场景下,使用DataWorks时通常会使用到的其他云产品。计算...

运维阶段

开发人员根据需求将代码发布上线后,还需要及时处理数据、程序、调度、监控告警等的异常事件,保障数据产出时效、程序高效运行和生产稳定性。背景信息 数据开发人员主要需要处理以下事项:程序异常处理、性能优化。调度异常处理数据质量...

SQL其他常见问题

但您需要注意,MaxCompute支持的DECIMAL类型数据的最大长度为38位,但实际业务处理过程中如果数据存储为最大长度,在数据处理过程中很容易出现数据溢出问题,建议调小数据长度。新创建的MaxCompute项目不支持数据类型自动隐式转换,如何...

账单数据订阅及查询分析

DataWorks及MaxCompute:DataWorks基于MaxCompute等大数据引擎,支持您在线进行SQL分析、业务洞察、编辑和分享数据,以及将查询结果保存为可视化图表卡片,快速搭建可视化数据报告。订阅账单数据后,用户中心会将相关账单数据同步至指定...

查看数据处理任务运维信息

您可以通过查看数据处理任务运维信息,快速定位任务失败的原因。本文以倾斜数据处理后为例,介绍如何查看数据处理任务运维信息。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择...

操作流程

写SQL语句 通过写算法语句或者引用自定义函数处理数据。具体操作,请参见 方式一:输入算法语句。上传资源文件 通过上传脚本来处理数据。具体操作,请参见 方式二:上传节点资源文件并输入对应脚本。设置运行配置参数 通过对计算节点中的...

操作流程

写SQL语句 通过写算法语句或者引用自定义函数处理数据。具体操作,请参见 方式一:输入算法语句。上传资源文件 通过上传脚本来处理数据。具体操作,请参见 方式二:上传节点资源文件并输入对应脚本。设置运行配置参数 通过对计算节点中的...

数据处理

数据处理类节点包括串行数据处理节点。本文介绍在蓝图编辑器中,配置数据处理类节点的方法。串行数据处理节点 串行数据处理 节点,是使用串行方式来处理一个事件。使用场景:例如,小数0.835要转换成整数百分比83%,可经过:单位转换(83.5...

概述

解决方案 T+1全量同步一键建仓是指通过DLA控制台配置数据源(RDS、PolarDB for MySQL、MongoDB数据源、ECS自建数据数据)和目标OSS数据仓库,系统按照您设定的数据同步时间自动、无缝的帮您把数据源中的数据同步到目标数据仓库OSS中,...

查询流程和执行计划

Stage的数据来源可以是底层存储系统中的数据或者网络中传输的数据,一个Stage由分布在不同Executor节点上相同类型的Task组成,多个Task会并行处理数据。说明 AnalyticDB MySQL版 SQL诊断功能支持对Stage级别进行结果诊断。更多详情,请参见...

实验介绍

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集,...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

概述

加解密过程 基础版Spark全密态计算引擎密钥处理机制 数据加密 在数据加密过程中,基础版Spark全密态计算引擎会从应用配置中获取用户主密钥(MEK),并自动为数据集生成随机的数据密钥(DEK)。其中,数据密钥(DEK)会用于加密文件中的数据...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

代码智能推荐

该功能可以利用AI模型帮助用户生成组件数据处理的代码。用户可以在对话框中描述数据处理的需求,并支持对推荐的代码内容进行修改。前提条件 已登录DataV控制台 已进入画布编辑器页面 操作步骤 在当前数据看板中随机添加一个组件(例如:...

快速体验

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 云原生大数据计算服务 MaxCompute 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用