图层配置项说明

数据图元组件、栅格瓦片、地形瓦片、三维瓦片 和 其他:在这五个类型图层数据面板中,数据配置和普通图表组件一致,可配置静态数据源、API数据源和空间构建数据源内容,还可将图层数据接口作为区块数据接口,在可视化应用中配置更丰富的...

图层配置项说明

数据图元组件、栅格瓦片、地形瓦片、三维瓦片 和 其他:在这五个类型图层数据面板中,数据配置和普通图表组件一致,可配置静态数据源、API数据源和空间构建数据源内容,还可将图层数据接口作为区块数据接口,在可视化应用中配置更丰富的...

准备工作

本文为您介绍在使用DataV调用DataWorks数据服务API展示数据成果前,需要完成的准备工作。创建DataWorks工作空间,选择region(本案例选择 华东1),勾选 MaxCompute 和 数据开发 购买 DataV产品企业版。连接交互式分析(Lightning)服务。...

项目管理概述

项目卡片列表 在项目卡片中支持查看项目相关信息外还支持对已创建的项目进行相关的管理操作,包括绑定数据板块、配置项目计算源、配置项目信息、项目的成员管理。同时您可以单击 进入工作区 快速进入当前项目的 开发 工作台。③ 批量...

项目管理概述

项目卡片列表 在项目卡片中支持查看项目相关信息外还支持对已创建的项目进行相关的管理操作,包括绑定数据板块、配置项目计算源、配置项目信息以及项目的成员管理。同时您可以单击 进入工作区 快速进入当前项目的 开发 工作台。③ 批量...

构建数据仓库

方案优势:阿里巴巴大数据最佳实践,高性能、低成本、Serverless服务,免运维、全托管模式,让企业的大数据研发人员更聚焦在业务数据的开发、生产、治理。产品组合:MaxCompute+Flink+DataWorks。场景说明 用户数据来源丰富,包括来自云端...

Java UDTF

采用Java语言编写UDTF函数可有效处理复杂数据处理任务并自定义逻辑,并且通过合理利用Java语言的特性,能更好地满足特定的数据处理需求,提升开发效率和处理性能。本文将介绍UDTF函数的代码结构、使用说明和示例。UDTF代码结构 您可以通过...

MaxCompute湖仓一体

基于MaxCompute湖仓一体的外部项目的数据进行规范建模和数据处理 创建MaxCompute计算源并绑定到Dataphin项目中后,规范建模可基于外部项目中的来源表创建逻辑表,MaxCompute SQL任务可用映射的内部项目的计算资源来执行,并支持读写外部...

MaxCompute湖仓一体

基于MaxCompute湖仓一体的外部项目的数据进行规范建模和数据处理 创建MaxCompute计算源并绑定到Dataphin项目中后,规范建模可基于外部项目中的来源表创建逻辑表,MaxCompute SQL任务可用映射的内部项目的计算资源来执行,并支持读写外部...

通过DataWorks实现MaxCompute跨项目迁移

本文为您介绍如何配置不同MaxCompute项目并实现数据迁移。前提条件 请您首先完成教程《简单用户画像分析(MaxCompute版)》的全部步骤,详情请参见 简单用户画像分析(MaxCompute版)。背景信息 本文使用的被迁移的原始项目为教程《简单...

UDF开发(Java)

编写Java UDF时可以使用Java Type或Java Writable Type,MaxCompute项目支持处理数据类型与Java数据类型的详细映射关系,请参见 附录:数据类型。UDF初始化或结束代码:可选。您可以通过 void setup(ExecutionContext ctx)和 void close...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

创建项目

由于开发和生产项目Owner都是同一个账号,请谨防通过发布任务到生产项目时,将生产项目表读写到开发项目再通过开发项目获取生产数据。业务场景二:创建仅实现查询、下载业务数据项目 场景需求 业务单一,成员角色基本一致,后续业务不会...

MaxCompute数据迁移

maxcompute default project(用于执行sql的project)⽤于执⾏有关项目SQL的项目,如源项目为A,默认项目为B,则执⾏ select*from A.table 的SQL语句时会使⽤B的配额组。要迁移的maxcompute projects 要迁移的项目列表,多个项目之间以英⽂...

添加项目成员

Dev项目角色 对应Prod项目角色 项目管理员 项目管理员 开发者 运维 分析师 数据访问者 普通访客 普通访客 系统支持修改项目中的项目管理员、开发者、运维、分析师和访客角色成员的角色,及支持从项目空间中移除项目管理员、开发者、运维、...

添加项目成员

Dev项目角色 对应Prod项目角色 项目管理员 项目管理员 开发者 运维 分析师 数据访问者 普通访客 普通访客 系统支持修改项目中的项目管理员、开发者、运维、分析师和访客角色成员的角色,及支持从项目空间中移除项目管理员、开发者、运维、...

使用 Web 版 ODC

信息项 示例值 数据源名称 mysql4.2.0 集群名 ob 4.1.0.1 租户名 osc_test_mysql 数据库用户名 odctest 数据库密码*在项目协同窗口的左侧导航栏中,单击 数据源>新建数据源。在弹出的 新建数据源 面板中填写或选择以下信息。信息项 说明 ...

什么是EMR Serverless StarRocks

对于存储层,StarRocks利用了对象存储的几乎无限容量和高可用性特点,不仅支持多种云上对象存储,也兼容HDFS,确保数据的大规模存储和持久化。StarRocks的存储计算分离模式保留了与传统存算一体模式相同的功能,无论是数据写入还是热数据...

数据分析概述

DataWorks提供的数据分析平台,可以流畅地进行数据处理、分析、加工及可视化操作。在数据分析板块中,您不仅可以在线洞察数据,还可以编辑和共享数据。本文为您介绍数据分析平台的优势、功能、权限等概要信息。产品优势 与本地数据分析相比...

装饰条

请求数据接口 重新请求服务端数据,上游数据处理节点或图层节点抛出的数据将作为参数。例如装饰条配置了API数据源为 https://api.test ,传到 请求数据接口 动作的数据为 { id:'1'},则最终请求接口为 https://api.test?id=1 。移动 将组件...

通过DataWorks实现MaxCompute跨项目迁移

本文为您介绍如何配置不同MaxCompute项目并实现数据迁移。前提条件 请您首先完成教程《简单用户画像分析(MaxCompute版)》的全部步骤,详情请参见 简单用户画像分析(MaxCompute版)。背景信息 本文使用的被迁移的原始项目为教程《简单...

装饰条

动作 动作 说明 请求数据接口 重新请求服务端数据,上游数据处理节点或图层节点抛出的数据将作为参数。例如装饰条配置了API数据源为 https://api.test ,传到 请求数据接口 动作的数据为 { id:'1'},则最终请求接口为 ...

iframe

动作 动作 说明 请求数据接口 重新请求服务端数据,上游数据处理节点或图层节点抛出的数据将作为参数。例如iframe配置了API数据源为 https://api.test ,传到 请求数据接口 动作的数据为 { id:'1'},则最终请求接口为 ...

数据集成概述

全增量同步任务简介 实际业务场景下,数据同步通常不能通过一个或多个简单离线同步或者实时同步任务完成,而是由多个 离线同步、实时同步 和 数据处理 等任务组合完成,这就会导致数据同步场景下的配置复杂度非常高。为了解决上述问题,...

创建通用项目

项目是Dataphin的基本组织单元,是进行多用户隔离和访问控制的主要边界。您开通Dataphin服务后,需要通过项目使用Dataphin。本文为您介绍如何创建项目。背景信息 Dataphin支持以下两种开发模式的项目:Dev-Prod模式:完成项目的创建后,...

概述

高性能版(推荐使用):基于基础版Spark全密态引擎提供的数据加密能力,高性能版的Spark全密态计算引擎结合Gluten和Velox,提供了向量化计算的能力,在保证数据传输与存储过程安全的同时,提升了数据处理效率。基础版和高性能版Spark全密态...

创建通用项目

项目是Dataphin的基本组织单元,是进行多用户隔离和访问控制的主要边界。您开通Dataphin服务后,需要通过项目使用Dataphin。本文为您介绍如何创建项目。背景信息 Dataphin支持以下两种开发模式的项目:Dev-Prod模式:完成项目的创建后,...

MapReduce

自然语言处理:基于大数据的训练和预测。基于语料库构建单词同现矩阵,频繁项集数据挖掘、重复文档检测等。广告推荐:用户单击(CTR)和购买行为(CVR)预测。MapReduce流程说明 MapReduce处理数据过程主要分成Map和Reduce两个阶段。首先...

MaxCompute数据

MaxCompute数据源作为数据中枢,为您提供读取和写入数据至MaxCompute的双向通道。使用限制 说明 DataWorks的MaxCompute数据源可使用 Tunnel Endpoint 地址访问相应MaxCompute项目的Tunnel服务,从而通过上传、下载等方式同步该项目数据。...

DataWorks节点合集

ODPS SQL、Hologres SQL、EMR Hive),以及可对引擎计算节点进行复杂逻辑处理的通用节点(例如,可统筹管理多个节点的虚拟节点、可循环执行代码的do-while节点),多种节点配合使用,满足您不同的数据处理需求。数据开发(DataStudio)支持...

OSS数据安全防护最佳实践

智能化:运用大数据和机器学习能力,通过智能化的算法,对敏感数据和高风险活动,诸如数据异常访问和潜在的泄漏风险进行有效识别和监控,并提供修复建议。提供定制化的敏感数据识别能力,便于客户自定义识别标准,实现精准识别和高效防护。...

数据标准

因此,数据处理的前奏就是数据标准化,数据标准作为一个统一的数据共识,在标准化中起到重要作用。数据标准落标说明 数据标准落标的意义在于从源头进行数据的标准化生产,加速数据的融合与统一的效率,节省大量数据应用和处理的成本。完成...

配置区块接口

如果您需要与三维城市构建器项目外的其他可视化组件之间进行交互联动,则需要为项目配置数据接口、事件和动作设置。三维城市构建器项目场景编辑器中提供了区块接口设置的功能,可用于自定义设置项目数据接口、事件和动作。本文介绍在项目...

配置区块接口

如果您需要与三维城市构建器项目外的其他可视化组件之间进行交互联动,则需要为项目配置数据接口、事件和动作设置。三维城市构建器项目场景编辑器中提供了区块接口设置的功能,可用于自定义设置项目数据接口、事件和动作。本文介绍在项目...

DataWorks模块使用说明

使用流程概览:参考文档:DataWorks数据建模 子模块:数据开发(DataStudio)功能说明:数据开发(DataStudio)是一站式大数据开发平台,支持在线开发MaxCompute、EMR、Hologres、CDP、ADB等多种大数据引擎的数据处理任务。它集成了强大的...

Delta Lake概述

背景信息 通常的数据湖方案是选取大数据存储引擎构建数据湖(例如,阿里云对象存储OSS产品或云下HDFS),然后将产生的各种类型数据存储在该存储引擎中。在使用数据时,通过Spark或Presto对接数据分析引擎并进行数据解析。但该套方案存在...

自定义配置 DDL/DML

本文为您介绍配置数据迁移或数据同步项目时,如何自定义配置增量同步中的 DDL 和 DML 同步。背景信息 您在配置数据迁移或数据同步项目时,如果在 选择迁移类型 或 选择同步类型 步骤选择了 增量同步,则会默认支持 DML 同步,您可以自定义...

添加处理数据数据管理

数据处理后,需要将处理后的数据添加到数据管理中,以便被用于数仓建设、标签管理等数据中台任务。本文以倾斜数据处理后为例,介绍如何添加处理后数据到数据管理。前提条件 已新建数据处理任务,具体操作,请参见 新建数据处理任务。操作...

启动和暂停数据同步项目

启动数据同步项目 创建数据同步项目时,如果在预检查完成后仅保存该数据同步项目,未进行启动,则需要在同步项目列表中手动启动数据同步项目。登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据同步。在 同步项目列表 页面,...

配置跨库Spark SQL节点

大数据处理:支持快速处理较大规模的数据(十万条以上数据)。Spark SQL语法:基于Spark 3.1.2版本部署,提供该版本所有语法特性和原生函数。原生函数包括聚合函数、窗口函数、数组函数、Map函数、日期和时间处理函数、JSON处理函数等。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据传输服务 云数据库 RDS 云数据库 MongoDB 版 数据库备份 DBS 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用