节点类型说明

本文按照节点离线、在线和流式的分类,分别介绍各节点类型对应能处理数据类型以及运行引擎。计算类节点 计算类节点分为离线类、在线和流式类节点主要用于处理各种不同的数据。节点分类 节点说明 离线节点 更多详细信息,请参见 离线类...

编辑脚本

脚本输入/输出配置说明 不同类型的脚本需配置的输入输出不同,如下:只有脚本类型为 创建联邦表、预处理规则 和 预处理应用 的脚本需配置输出数据,且该类型脚本的输出数据保存在联邦表文件夹中。脚本类型 输入配置 输出配置 创建联邦表 ...

查看资源用量大盘

资源用量大盘为您展示当前租户下已使用的数据处理单元总量和按任务类型分别统计的消耗趋势以及按项目粒度统计的消耗增量排行,帮助您了解数据处理单元的消耗情况以及时调整资源规格配置。本文为您介绍如何查看资源用量大盘。前提条件 需...

配置学区地图单选框交互

本文档为您介绍通过 单选框 实现不同类型学校的散点层数据的切换展示,以及 Tab列表 和 单选框 的双重触发判断方法。例如 Tab列表 选择 小学,单选框 选择 公办,那么最终实现在可视化应用上展示所有 公办小学 的散点层信息。前提条件 完成...

配置学区地图单选框交互

本文档为您介绍通过 单选框 实现不同类型学校的散点层数据的切换展示,以及 Tab列表 和 单选框 的双重触发判断方法。例如 Tab列表 选择 小学,单选框 选择 公办,那么最终实现在可视化应用上展示所有 公办小学 的散点层信息。前提条件 完成...

新建数据处理任务

系统提供数据处理能力,包括倾斜数据处理、地形数据处理、三维模型处理、影像优化处理。本文以新建倾斜数据处理任务为例,介绍如何新建数据处理任务。前提条件 已添加空间元数据,具体操作,请参见 添加数据。已添加OSS类型云计算资源。...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

使用场景

包含但不限于如下场景:数据迁移与同步 使用DMS任务编排配置和管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗与加工 DMS任务编排可以用于数据清洗和加工任务...

Transaction Table2.0概述

随着当前数据处理业务场景日趋复杂,很多业务场景并不要求延时秒级更新可见或者行级更新,更多的需求是分钟级或者小时级的近实时数据处理叠加海量数据处理场景,MaxCompute支持基于Transaction Table2.0实现近实时的增全量一体的数据存储...

数据预标注:智能标注配置

iTAG 支持通过智能标注配置进行数据预标注,您可以在预标注结果的基础上进行正式标注。在正式标注时,您仅需要对预标注结果进行校验和修正,可以提升标注效率。ITAG支持离线预标注和线上服务两种预标注方式。离线预标注是指您导入带有预...

Oracle同步至Tablestore

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

数据处理

数据处理类节点包括页面导航节点、并行数据处理节点、串行数据处理节点、序列执行节点和WebSocket节点。本文介绍在蓝图编辑器中,配置数据处理类节点的方法。页面导航节点 页面导航 节点,可用于实现页面跳转的功能,支持新开浏览器标签页...

计费说明-半托管

智能研发版定价 数据处理单元规格 定价(CNY/年)500 298,000 1000 397,800 1500 497,600 2000 597,400 2500 697,200 3000 797,000 数据处理单元统计规则:数据处理单元总量=(数据同步任务数+数据集成任务数)/3+计算任务数(离线和实时)...

配置学区地图区域热力层交互

本文档为您介绍当鼠标划过地图的 区域热力层 子组件时,切换展示当前区域对应的学校数据的方法。前提条件 完成 配置学区地图单选框交互 操作,本文档将在其基础上继续添加节点和连线。背景信息 本文档包括以下两个场景的配置。切换展示学校...

配置学区地图区域热力层交互

本文档为您介绍当鼠标划过地图的 区域热力层 子组件时,切换展示当前区域对应的学校数据的方法。前提条件 完成 配置学区地图单选框交互 操作,本文档将在其基础上继续添加节点和连线。背景信息 本文档包括以下两个场景的配置。切换展示学校...

查看资源使用情况-半托管

资源统计项目 统计口径 描述 数据处理单元 同步&集成任务:每3个离线任务(数据同步任务+数据集成任务数)向上取整计算1个数据处理单元。计算任务:每1个离线计算任务计算1个数据处理单元。维度逻辑表:每1个维度逻辑表计算1个数据处理单元...

计费说明-全托管

000 4500 60C240G 101,500 5000 60C240G 110,000 数据处理单元统计规则:数据处理单元总量=(数据同步任务数+数据集成任务数)/3+计算任务数(离线和实时)+明细逻辑表总数+[向上取整(指标数/10)]其中:前200个数据集成任务不纳入统计,...

Kafka单表实时入湖OSS(HUDI)

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

代码智能推荐

该功能可以利用AI模型帮助用户生成组件数据处理的代码。用户可以在对话框中描述数据处理的需求,并支持对推荐的代码内容进行修改。前提条件 已登录DataV控制台 已进入画布编辑器页面 操作步骤 在当前数据看板中随机添加一个组件(例如:...

功能简介

数据处理 支持倾斜数据处理能力,可以将OSGB格式数据转化为S3M数据,再将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。支持对数据处理任务进行管理。支持查看数据处理任务详情,包括任务的基本信息、处理的...

空间数据(邀测中)

数据处理 支持倾斜数据处理能力,可以将OSGD格式数据转化为S3M数据,再将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。支持对数据处理任务进行管理。支持查看数据处理任务详情,包括任务的基本信息、处理的...

MaxFrame概述

您可以用更熟悉、高效、便捷的方式利用MaxCompute的海量计算资源及数据进行大规模数据处理、可视化数据探索分析以及科学计算、ML/AI开发等工作。本文为您介绍MaxFrame背景信息、功能介绍及使用场景。版本说明 当前MaxCompute MaxFrame功能...

查看资源使用情况-全托管

资源统计项目 统计口径 描述 数据处理单元 同步&集成任务:每3个离线任务(数据同步任务+数据集成任务数)向上取整计算1个数据处理单元;其中,前200个集成同步任务免费。计算任务:每1个离线计算任务或实时计算任务计算1个数据处理单元。...

概述

我们提供了一种数据类型 tsvector 来存储预处理后的文档,还提供了一种类型 tsquery 来表示处理过的查询。有很多函数和操作符可以用于这些数据类型,其中最重要的是匹配操作符@。全文搜索可以使用索引来加速。什么是一个文档 一个document...

Kafka实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

典型场景

典型场景 数据仓库服务 您可以通过数据传输服务(DTS)或数据集成服务(DataX),将云数据库(例如RDS、PolarDB)或自建数据库批量同步到 云原生数据仓库AnalyticDB PostgreSQL版。云原生数据仓库PostgreSQL版支持对海量数据的复杂ETL进行...

产品概述

阿里云流数据处理平台数据总线DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish),订阅(Subscribe)和分发功能,让您可以轻松构建基于流式数据的分析和应用。数据总线 DataHub服务可以对各种移动设备,应用...

租户设置

通过创建多个租户,可以对不同租户分配不同的数据单元以及功能模块,并能够保证租户间数据隔离,满足不同租户的不同要求。本文为您介绍如何新建、编辑、删除以及恢复租户。权限说明 仅元仓租户的超级管理员与系统管理员支持新建及管理租户...

应用场景

EMR Serverless Spark可以满足企业级用户的多种数据处理与分析需求。本文介绍EMR Serverless Spark的应用场景以及相应的解决方案。建立数据平台 得益于其开放式架构设计,EMR Serverless Spark极大地简化并提升了在数据湖环境中对结构化和...

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

外部表概述

该机制使得用户可以无需将数据导入到MaxCompute内部存储,直接对外部数据进行操作,从而提供了数据处理的灵活性和方便性。背景信息 MaxCompute SQL作为分布式数据处理的主要入口,可实现EB级别离线数据的快速处理和存储。随着大数据业务的...

配置逻辑表数据延迟

维度与事实逻辑表数据延迟用于自动重跑逻辑表在 最大延迟天数 周期内的全部数据。本文为您介绍如何配置维度与事实逻辑表数据延迟。使用限制 事实逻辑表数据时效须为天时效(离线T+1)且该逻辑表设置了 事件时间 字段,才可配置是否开启数据...

数据查询

预聚合是一种对数据预计算的方法,预聚合之后的结果表和原表属于不同的表,查询时需要指定不同的数据表。使用预降采样查询提升查询性能 大范围的时间查询 预降采样 通过存储引擎将写入的数据降低精度后单独存储,查询时按查询条件中指定的...

合规&认证

用户应对业务数据来源、内容及处理数据的合法性负责,请谨慎判断数据来源、内容及处理数据的合法性,依法获得处理此类数据所需的个人同意或政府部门许可、备案或评估。因用户业务数据的来源、内容及对用户业务数据处理活动违反法律法规、...

入湖基础操作

Kafka实时入湖:可以实现将阿里云消息队列Kafka或EMR Kafka的数据实时同步到数据湖中,支持用户自定义预处理算子。配置数据源与目标数据湖信息。配置数据源。不同类型的入湖任务配置项有所差异。以关系数据库全量入湖为例,如下图所示。...

数据开发概述

数据开发包括编码研发和规范建模。编码研发用于构建计算任务,例如创建SQL代码任务、Shell任务、Python任务、MR任务和Spark任务;规范建模用于构建逻辑化的数据模型。前提条件 若需进行实时开发,需已购买实时研发增值服务。详情请参见 ...

影响查询性能的因素

背景信息 集群规格 AnalyticDB MySQL版 集群支持多种规格(更多详情,请参见 规格),不同集群规格的CPU核数、内存大小和数据存储介质等属性不同,处理子任务的能力也就不同,因此您需要结合业务查询特征来选择集群规格。例如,以Join或...

Iceberg概述

而Iceberg简化了工作流程,整个数据处理过程是一条完整的、可靠的实时流,其数据的清洗、转换和特征化等操作都是流上的节点动作,无需处理历史数据和实时数据。此外,Iceberg还支持原生的Python SDK,对于机器学习算法的开发者非常友好。

系统函数分类

数据探索自身预置了诸多函数,用于常见的数据处理需求。这些预置的系统函数具有跨引擎的特点,在离线、实时、在线3种模型的不同引擎中具有相同的行为和使用方式。本文为您介绍数据探索提供的系统函数类型及函数使用相关说明。函数分类 数据...

数据标准

因此,数据处理的前奏就是数据标准化,数据标准作为一个统一的数据共识,在标准化中起到重要作用。数据标准落标说明 数据标准落标的意义在于从源头进行数据的标准化生产,加速数据的融合与统一的效率,节省大量数据应用和处理的成本。完成...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 数据库备份 DBS 云数据库 RDS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用