流程控制

return true为满足该处理方法的条件,return false为不满足该处理方法的条件,可叠加多个,每个处理方法独立计算,输入均为上一个节点的输出结果,输出为每个处理方法自己的计算结果,相互不影响。多路判断 多路判断 节点属于Case-When节点...

EMR Workbench

阿里云EMR Workbench是一个综合性的大数据分析和开发环境,作为阿里云E-MapReduce的一部分,它提供了EMR Notebook和EMR Workflow两个核心功能。通过EMR Workbench,您可以轻松进行数据开发,以及交互式数据分析,并设计复杂的数据处理工作...

MaxFrame概述

您可以用更熟悉、高效、便捷的方式利用MaxCompute的海量计算资源及数据进行规模数据处理、可视化数据探索分析以及科学计算、ML/AI开发等工作。本文为您介绍MaxFrame背景信息、功能介绍及使用场景。版本说明 当前MaxCompute MaxFrame功能...

什么是DataWorks

中国国际数据产业博览会十佳数据案例 中国信通院:数据集成工具、数据管理工具、数据开发平台、数据脱敏工具、数据分类分级等评测 学习路径 您可以通过DataWorks文档首页的 学习路径,快速了解DataWorks的相关概念、基础操作及进阶操作...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

Iceberg概述

您可以借助Iceberg快速地在HDFS或者阿里云OSS上构建自己的数据湖存储服务,并借助开源大数据生态的Spark、Flink、Hive和Presto等计算引擎来实现数据湖的分析。核心能力 Apache Iceberg设计初衷是为了解决Hive数仓上云的问题,经过多年迭代...

2024年

03-26 新增Pandas API 新说明 MaxFrame提供了兼容Pandas的API接口,您可以用类似于Pandas的方式来操作MaxCompute中的数据,同时利用MaxCompute强大的分布式计算能力,简化您在大数据环境下的数据处理工作。Pandas API支持 2024-03-26 新增...

功能更新动态(2022年之前)

华北2(北京)、华东1(杭州)计费说明 2021年08月24日 华南1(深圳)2021年08月26日 华东2(上海)系统将依据您选择的数据处理单元规格分配不同的默认调度资源,选购的规格越高,分配的调度资源越多,可以支持的任务并发数越,研发效率...

文档更新动态(2022年之前)

新功能 网络连通解决方案 2021年08月24日 数据服务:支持数据服务模块的数据查询加速、支持的数据源类型和版本拓展 为了满足对数据查询速度有要求的业务场景,Dataphin支持为项目添加加速计算源,且完成Dataphin数据源开发后,您可以手动...

数据处理

节点配置面板 配置项说明 参数 说明 处理方法 通过新增数据过滤器的方法编写处理方法,返回结果为Boolean型。return true为满足该处理方法的条件,return false为不满足该处理方法的条件,可以添加多个数据过滤器。锚点配置面板 事件/动作...

应用场景

通过对敏感数据进行分类、分级和脱敏,帮助您精准识别和保护敏感数据。...数据安全合规检查 应相关监督部门的数据安全合规检查要求,可通过 DSC 提供的数据安全的分类分级、泄漏检测、数据脱敏等功能对数据进行相关合规检查。

数据标准概述

通过规范约束标准代码、度量单位、字段标准、命名词典,来保障后续建模与应用过程中数据处理的一致性,从源头上保障数据的标准化生产,节约后续数据应用和处理的成本。应用场景 DataWorks的数据标准包含 字段标准、标准代码、度量单位、...

应用场景

数据传输服务DTS(Data Transmission Service)支持数据迁移、数据订阅和数据实时同步功能,帮助您实现多种典型应用场景。不停机迁移数据库 传输方式:数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入...

Oracle同步至Tablestore

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

节点类型说明

本文按照节点离线、在线和流式的分类,分别介绍各节点类型对应能处理数据类型以及运行引擎。计算类节点 计算类节点分为离线类、在线和流式类节点主要用于处理各种不同的数据。节点分类 节点说明 离线节点 更多详细信息,请参见 离线类...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

使用场景

包含但不限于如下场景:数据迁移与同步 使用DMS任务编排配置和管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗与加工 DMS任务编排可以用于数据清洗和加工任务...

功能简介

入库任务 支持将Shapefile、GeoJSON和CSV文件类矢量数据添加到系统默认的空间数据库或者指定的PostGIS、Ganos数据库,方便对空间数据库进行空间检索、数据质检、血缘记录,打通数据计算引擎链路,使得空间数据被用于数仓建设、标签管理等...

空间数据(邀测中)

入库任务 支持将Shapefile、GeoJSON和CSV文件类矢量数据添加到系统默认的空间数据库或者指定的PostGIS、Ganos数据库,方便对空间数据库进行空间检索、数据质检、血缘记录,打通数据计算引擎链路,使得空间数据被用于数仓建设、标签管理等...

Kafka单表实时入湖OSS(HUDI)

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

Kafka实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

查看资源使用情况-半托管

资源统计项目 统计口径 描述 数据处理单元 同步&集成任务:每3个离线任务(数据同步任务+数据集成任务数)向上取整计算1个数据处理单元。计算任务:每1个离线计算任务计算1个数据处理单元。维度逻辑表:每1个维度逻辑表计算1个数据处理单元...

引擎简介

云原生多模数据库 Lindorm 流引擎面向实时数据处理场景,支持使用标准的SQL及熟悉的数据库概念完成一站式的实时数据处理,适用于车联网、物联网和互联网中常见的ETL、实时异常检测和实时报表统计等场景。本文介绍Lindorm流引擎的应用场景和...

查看资源使用情况-全托管

资源统计项目 统计口径 描述 数据处理单元 同步&集成任务:每3个离线任务(数据同步任务+数据集成任务数)向上取整计算1个数据处理单元;其中,前200个集成同步任务免费。计算任务:每1个离线计算任务或实时计算任务计算1个数据处理单元。...

交叉透视表

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

Slowly Changing Dimension

业务数据随着时间在不断变化,如果您要对数据进行分析,则需要考虑如何存储和管理数据。其中数据中随着时间变化的维度被称为Slowly Changing Dimension(SCD)。E-MapReduce根据实际的数仓场景定义了基于固定粒度的缓慢变化维(G-SCD)。...

配置资产数据

本文档介绍配置资产数据方法,以及资产数据面板的内容,包括数据接口、数据源、数据过滤器和数据轮询频次等。操作步骤 登录 DataV控制台。在 我的可视化 页面,单击您创建的可视化应用项目上方的 编辑 按钮。在画布编辑器页面,单击 图层...

DataX同步数据

DataX是异构数据源离线同步的工具,支持多种异构数据源之间高效的数据同步。Dataphin系统内嵌了DataX组件,支持通过构建Shell任务调用DataX,实现数据同步。本教程以RDS MySQL数据库为例,为您介绍基于Dataphin如何调用DataX同步数据。前提...

概述

若集群中某些库表的数据几乎没有更新、插入和修改操作,且读取频率非常低,如果您有降本需求,可以使用 PolarDB MySQL版 提供的冷数据归档功能,将这部分数据转存至低成本的OSS上存储,以降低数据存储成本。本章节介绍了冷数据归档方法、...

安全基线检查

数据安全中心通过动态检测数据资产配置的方式,以数据为落脚点检测阿里云上数据库资产是否存在配置风险,例如身份验证、访问控制、加密、备份和恢复等方面的配置是否安全,这些检查策略和检查项统称为安全基线检查。安全基线检查功能可以帮...

DataWorks节点合集

ODPS SQL、Hologres SQL、EMR Hive),以及可对引擎计算节点进行复杂逻辑处理的通用节点(例如,可统筹管理多个节点的虚拟节点、可循环执行代码的do-while节点),多种节点配合使用,满足您不同的数据处理需求。数据开发(DataStudio)支持...

Transaction Table2.0概述

随着当前数据处理业务场景日趋复杂,很多业务场景并不要求延时秒级更新可见或者行级更新,更多的需求是分钟级或者小时级的近实时数据处理叠加海量数据处理场景,MaxCompute支持基于Transaction Table2.0实现近实时的增全量一体的数据存储...

实现传递动态参数

本文为您介绍,如何在请求数据接口时传递动态参数,实现 Tab列表 和基础平面地图下的 区域热力层 联动。效果展示 操作步骤 登录 DataV...配置串行数据处理节点的处理方法。return data.content;单击页面右上角的 预览 图标,预览展示结果。

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

实现时间戳联动

配置串行数据处理节点的处理方法。return { start_time:new Date(data.time).valueOf()-60*1000,/当前时间前 60s end_time:new Date(data.time).valueOf()/当前时间 } 原理:时间器 组件在设置了定时触发后,每3s会抛出一次 当时间变化时 ...

产品概述

什么是E-MapReduce 开源大数据开发平台E-MapReduce(简称EMR),是运行在阿里云平台上的一种大数据处理的系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理...

产品简介

开源大数据开发平台E-MapReduce(简称EMR)是运行在阿里云平台上的一种大数据处理系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理数据。EMR还可以与阿里云...

什么是ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据库备份 DBS 数据传输服务 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用