流程控制

可在配置面板中添加多个处理方法,添加后,序列执行 节点中显示您添加的处理方法;各方法按照顺序进行数据处理。执行 输入上游节点的输出结果,用于该节点的结果计算。配置项说明 参数 说明 处理方法 通过新增数据过滤器的方法编写处理方法...

EMR Workbench

阿里云EMR Workbench是一个综合性的大数据分析和开发环境,作为阿里云E-MapReduce的一部分,它提供了EMR Notebook和EMR Workflow两个核心功能。通过EMR Workbench,您可以轻松进行数据开发,以及交互式数据分析,并设计复杂的数据处理工作...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

MaxFrame概述

更高的处理性能 MaxFrame可直连MaxCompute数据,运行时无需将数据拉取至本地计算,消除了不必要的本地数据传输,提高执行效率。MaxFrame可直接使用MaxCompute海量弹性计算资源,并支持自动分布式、并行处理,大幅缩短数据处理的时间。更...

什么是DataWorks

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

Iceberg概述

您可以借助Iceberg快速地在HDFS或者阿里云OSS上构建自己的数据湖存储服务,并借助开源大数据生态的Spark、Flink、Hive和Presto等计算引擎来实现数据湖的分析。核心能力 Apache Iceberg设计初衷是为了解决Hive数仓上云的问题,经过多年迭代...

2024年

03-26 新增Pandas API 新说明 MaxFrame提供了兼容Pandas的API接口,您可以用类似于Pandas的方式来操作MaxCompute中的数据,同时利用MaxCompute强大的分布式计算能力,简化您在大数据环境下的数据处理工作。Pandas API支持 2024-03-26 新增...

功能更新动态(2022年之前)

设置Dataphin实例的计算引擎 计算源 计算源为离线数据的处理提供计算及存储资源、为实时数据的处理提供计算资源。计算源 数据源 支持创建离线数据源和实时数据源,通过数据源将业务数据引入Dataphin平台。数据源 业务板块 创建业务板块时,...

文档更新动态(2022年之前)

通用功能 设置Dataphin实例的计算引擎 2020-04-09 计算源 功能拓展 计算源为离线数据的处理提供计算及存储资源、为实时数据的处理提供计算资源。通用功能 计算源 2020-04-09 业务板块 功能拓展 创建业务板块时,支持设定板块管理员,帮助您...

应用场景

数据传输服务DTS(Data Transmission Service)支持数据迁移、数据订阅和数据实时同步功能,帮助您实现多种典型应用场景。不停机迁移数据库 传输方式:数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入...

数据处理

节点配置面板 配置项说明 参数 说明 处理方法 通过新增数据过滤器的方法编写处理方法,返回结果为Boolean型。return true为满足该处理方法的条件,return false为不满足该处理方法的条件,可以添加多个数据过滤器。锚点配置面板 事件/动作...

缺失处理

功能说明 缺失值处理组件支持对缺失的数据进行填充或剔除,数据集出现缺失值可能会导致后续的建模异常,可以在数据处理阶段对缺失值进行填充或剔除。支持的填充方法有:前值,后值,均值,和指定值。计算逻辑原理 前值:将缺失值按照前面...

交叉透视表

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

Transaction Table2.0概述

随着当前数据处理业务场景日趋复杂,很多业务场景并不要求延时秒级更新可见或者行级更新,更多的需求是分钟级或者小时级的近实时数据处理叠加海量数据处理场景,MaxCompute支持基于Transaction Table2.0实现近实时的增全量一体的数据存储...

实现传递动态参数

本文为您介绍,如何在请求数据接口时传递动态参数,实现 Tab列表 和基础平面地图下的 区域热力层 联动。效果展示 操作步骤 登录 DataV...配置串行数据处理节点的处理方法。return data.content;单击页面右上角的 预览 图标,预览展示结果。

实现时间戳联动

配置串行数据处理节点的处理方法。return { start_time:new Date(data.time).valueOf()-60*1000,/当前时间前 60s end_time:new Date(data.time).valueOf()/当前时间 } 原理:时间器 组件在设置了定时触发后,每3s会抛出一次 当时间变化时 ...

产品概述

什么是E-MapReduce 开源大数据开发平台E-MapReduce(简称EMR),是运行在阿里云平台上的一种大数据处理的系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理...

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

产品简介

开源大数据开发平台E-MapReduce(简称EMR)是运行在阿里云平台上的一种大数据处理系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理数据。EMR还可以与阿里云...

如何处理Tair集群数据倾斜

建议您及时对实例进行数据倾斜的原因排查,并根据对应处理方法在业务层进行改造,对实例进行优化,更多信息请参见 数据倾斜的原因与处理方法。倾斜场景 可能原因 临时方案 内存倾斜 Key、Hash Tags。升级实例规格,具体操作请参见 变更...

如何处理Redis集群数据倾斜

数据倾斜的原因与处理方法 请提前规划业务增长率,合理地拆分Key,并保持规范的数据写入,才能解决数据倾斜的根源问题。产生倾斜原因 说明 处理方法 Key Key通常以Key的大小和Key中成员的数量来综合判定。常见于在KKV(Key-key-value...

什么是ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

流式ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

通用数据开发

通常数据开发的总体流程包括数据产生、数据收集与存储、数据分析与处理数据提取和数据展现与分享。说明 上图中,虚线框内的开发流程均可基于阿里云大数据平台完成。数据开发的流程如下所示:数据产生:业务系统每天会产生大量结构化的...

时序补点函数

如果时间序列中存在数据缺失问题,可以使用时序补点函数补齐缺失的数据。调用方式 select series_padding(long stamp,double value,long interval,varchar padType)输入参数 参数 说明 stamp 数据的UnixTime时间戳。value 每个时刻对应的...

影响查询性能的因素

如果查询需要处理数据量较,就可能会长时间占用大量的资源,导致整体查询效率降低,进而影响最终的查询效果。此外,如果 AnalyticDB MySQL版 中表存储的数据量较,那么在执行索引过滤、明细数据读取等操作时也会出现相互争抢磁盘I/O...

应用场景

处理意味着每一次处理数据量很,而且有很多张大表要做关联,经常要做一些比较复杂的查询,并且更新量也比较,使得传统的集中式数据库,出现了单点瓶颈,垂直扩容成本非常高,几乎不可接受。OceanBase 数据库的 SQL 引擎在经过了近 ...

MapReduce

自然语言处理:基于大数据的训练和预测。基于语料库构建单词同现矩阵,频繁项集数据挖掘、重复文档检测等。广告推荐:用户单击(CTR)和购买行为(CVR)预测。MapReduce流程说明 MapReduce处理数据过程主要分成Map和Reduce两个阶段。首先...

DataWorks On CDP/CDH使用说明

一、数据集成 DataWorks的数据集成模块为您提供读取和写入数据至CDP/CDH Hive、CDP/CDH HBase的能力,您需要将Hive或HBase组件创建为 DataWorks的 Hive或HBase数据源,实现将其他数据源的数据同步至Hive或HBase数据源,或将Hive或HBase数据...

数据防泄漏典型案例

使用数据安全中心可以监测和防范各类数据泄露风险,例如身份...处理方法:通过 数据安全中心控制台 的 数据审计>日志分析 页面中的审计日志持续监控后续行为,观察是否有违规行为。相关文档 查看审计日志 发现和处理异常告警 自定义检测模型

数据标准概述

通过规范约束标准代码、度量单位、字段标准、命名词典,来保障后续建模与应用过程中数据处理的一致性,从源头上保障数据的标准化生产,节约后续数据应用和处理的成本。应用场景 DataWorks的数据标准包含 字段标准、标准代码、度量单位、...

应用场景

访问频度极高业务 如社交网络、电子商务、游戏、广告等。...实现对大数据的分布式分析处理,适用于商业分析、挖掘等大数据处理场景。通过数据集成服务可自助实现数据在云数据库 Memcache 版与 MaxCompute 间的同步,简化数据操作流程。

Oracle同步至Tablestore

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

使用场景

包含但不限于如下场景:数据迁移与同步 使用DMS任务编排配置和管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗与加工 DMS任务编排可以用于数据清洗和加工任务...

Kafka单表实时入湖OSS(HUDI)

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据的处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

节点类型说明

本文按照节点离线、在线和流式的分类,分别介绍各节点类型对应能处理数据类型以及运行引擎。计算类节点 计算类节点分为离线类、在线和流式类节点主要用于处理各种不同的数据。节点分类 节点说明 离线节点 更多详细信息,请参见 离线类...

补全缺失数据

补全缺失数据功能是指在图表的日期维度中自动填充缺失的数据,以便在分析和报告中完整地展示完整的时间序列。前提条件 您已创建仪表板,请参见 新建仪表板。您已选定目标数据集,并配置好图表字段。请参见 配置图表字段。使用限制 支持补全...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云原生大数据计算服务 MaxCompute 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用