创建GreenPlum数据

数据源配置 选择需要配置的数据源:如果业务数据源区分生产数据源和开发数据源,则选择 生产+开发数据源。如果业务数据源不区分生产数据源和开发数据源,则选择 生产数据源。标签 您可根据标签给数据源进行分类打标,如何创建标签,请参见 ...

创建GreenPlum数据

数据源配置 选择需要配置的数据源:如果业务数据源区分生产数据源和开发数据源,则选择 生产+开发数据源。如果业务数据源不区分生产数据源和开发数据源,则选择 生产数据源。标签 您可根据标签给数据源进行分类打标,如何创建标签,请参见 ...

数据开发概述

规范建模用于构建逻辑化的数据模型。前提条件 若需进行实时开发,需已购买实时研发增值服务并且当前租户已开通实时研发模块。功能介绍 规范建模:基于已明确的业务需求,从业务顶层开始设计,规范定义数据的标准及计算口径完成数据模型的...

创建MaxCompute数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

数据集成概述

背景信息 面对各行各业对数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

标签对象

适用场景 计算链路 计算引擎 是否支持 离线 MaxCompute 是 Hive 是 RDS/MySQL 是 使用说明 标签对象的使用和读数据表类似,可以做为模型的数据源直接拖拽到画布中使用,在算子详情中可以查看对应标签对象的数据表信息及已上线的标签(可以...

创建MaxCompute数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

创建Hudi数据

本文为您介绍如何创建Hudi数据源。背景信息 Hudi即Apache Hudi,Hudi是一个通用的数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并...同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

创建Hudi数据

同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。重要 创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据 网络连通解决方案 自行排查...

新建同步节点并运行后上线

逻辑表 输入表的数据格式,由数据模型定义,在下拉列表中选择,表示该计算资源中提供数据的数据表的结构。当选择数据表时,。当选择星号(*)时,表示数据结构为任意结构,用于对未创建数据模型的表进行操作,此时物理表必须选择已经存在的...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

质量评估

质量检测计划管理 支持对质量检测计划的创建,可批量选择需要周期执行且已配置好质量规则的数据模型,配置周期检测任务和调度,进行持续质量检测。支持对计划任务的管理、启动、停止和试跑。支持对物理表质量结果进行告警订阅,在全景监控...

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

数据分析概述

DataWorks提供的数据分析平台,可以流畅地进行数据处理、分析、加工及可视化操作。在数据分析板块中,您不仅可以在线洞察数据,还可以编辑和共享数据。本文为您介绍数据分析平台的优势、功能、权限等概要信息。产品优势 与本地数据分析相比...

功能简介

时空轨迹:移动对象数据库中记录对象连续位置变化信息的数据模型(详见轨迹存储模型 基本概念),移动对象数据库为时空轨迹数据提供基本操作、查询和分析功能支持。针对移动对象时空轨迹(以下简称轨迹)数据,Lindorm Ganos提供以下核心...

数据模型

本文介绍Lindorm时序引擎的数据模型以及相关术语。基本概念 物联网、应用监控、工业互联网等典型的时序场景下,数据源(Data Source)通常按一定的周期持续产生时序数据,一条时序数据由Tag、Timestamp、Field等元素共同来描述,具有相同...

新建Doris数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

功能简介

质量检查计划 支持对质量检查计划的创建,可批量选择,需要周期执行且已配置好质量规则的数据模型,配置周期检查任务和调度,进行持续质量检查。支持对计划任务的管理、启动、停止和试跑。支持对物理表质量结果进行告警订阅,在全景监控...

功能简介

质量检查计划 支持对质量检查计划的创建,可批量选择,需要周期执行且已配置好质量规则的数据模型,配置周期检查任务和调度,进行持续质量检查。支持对计划任务的管理、启动、停止和试跑。支持对物理表质量结果进行告警订阅,在全景监控...

新建Doris数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

JindoFS实战演示

视频发布时间 描述 Fluid+JindoFS对OSS上的数据进行训练加速 Fluid+JindoFS对OSS上的数据进行训练加速 2021-07-06 Fluid是一个开源的Kubernetes原生的分布式数据集编排和加速引擎,主要服务于云原生场景下的数据密集型应用,例如数据应用...

系统管理

背景信息 建表策略管理:是否允许用户在没有数据模型的情况下,可在数据开发(DataStudio)直接创建MaxCompute物理表。策略启用后,凡是未通过智能数据建模发布,直接在数据开发(DataStudio)创建或修改的MaxCompute物理表,在执行提交、...

使用MaxCompute控制台(离线)

同时您需拥有对应的数据权限,如:上传至已有表:需具备对应表的数据写入权限。上传至新增表:需具备对应项目的创建表权限。创建MaxCompute项目详情请参见 项目管理(新版),授权操作请参见 权限管理。基于阿里云对象存储OSS上传数据时,...

创建Hologres数据

在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres数据源。背景信息 Hologres即阿里云交互式分析Hologres,是阿里巴巴自主研发的一款交互式分析...

新建微应用

微应用支持将模型的数据源节点开启替换功能。开启允许替换后,可以在微应用运行时通过上传一个Excel文件将模型中对应的源数据表替换为Excel指定的内容。需要选择至少一个以上模型节点作为当前微应用的输出。当微应用运行后,在微应用运行...

创建HBase数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

数据标准概述

标准的数据模型和标准数据为新建系统提供支撑,提升应用系统的开发实施效率;数据标准化清晰定义 数据质量规则、数据的来源和去向、校验规则,提升数据质量。管理方面:通过数据的标准化定义,明确数据的责任主体,为数据安全、数据质量...

数据标准概述

标准的数据模型和标准数据为新建系统提供支撑,提升应用系统的开发实施效率;数据标准化清晰定义 数据质量规则、数据的来源和去向、校验规则,提升数据质量。管理方面:通过数据的标准化定义,明确数据的责任主体,为数据安全、数据质量...

创建Hologres数据

在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres数据源。背景信息 Hologres即阿里云交互式分析Hologres,是阿里巴巴自主研发的一款交互式分析...

元数据仓库共享模型标准访问方式

如果您希望保证使用最新数据并可以及时获取数据产出通知,可以创建检查任务(如PyODPS任务),并直接将检查任务配置为所有的集成任务的上游,检查任务检查到共享模型数据表更新后会变成运行成功,成功后可触发下游集成任务的调度。...

DataWorks On CDP/CDH使用说明

环境准备 一、资源准备 类别 描述 相关文档 版本选择 DataWorks基础版服务可满足 CDP或CDH 基本的数据上云、数据开发与调度生产、简单的数据治理工作,若需获取更专业的数据治理、数据安全解决方案,可选择相应的 标准版、专业版、企业版 ...

新建ArgoDB数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

配置跨库Spark SQL节点

任务编排中的跨库Spark SQL节点,主要针对各类跨库数据同步和数据加工场景,您可以通过编写Spark SQL,完成各种复杂的数据同步或数据加工的任务开发。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、...

新建Paimon数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute、Hive、Oracle、...

数据集成概述

数据集成是稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动及同步能力。使用限制 数据同步:支持且仅支持结构化(例如RDS、DRDS等)、半结构化、无结构化(OSS、TXT等,要求具体同步...

创建TDH Inceptor数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

离线同步并发和限流之间的关系

限制和最佳实践:分布式执行模式下,配置较大任务并发度可能会对您的数据存储产生较大的访问压力,请评估数据存储的访问负载。如果您的独享资源组机器台数为1,不建议使用分布式执行模式,因为执行进程仍然分布在一台Worker节点上,无法...

使用DataWorks

MaxCompute支持通过DataWorks的数据集成功能将MaxCompute中的数据以离线方式导出至其他数据源。当您需要将MaxCompute中的数据导出至其他数据源执行后续数据处理操作时,您可以使用数据集成功能导出数据。本文为您介绍如何将MaxCompute...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用