创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

创建HBase数据

通过创建HBase数据源能够实现Dataphin读取HBase的业务数据或向HBase写入数据。本文为您介绍如何创建HBase数据源。背景信息 HBase是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据库中读取的数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

配置DataHub输入组件

配置DataHub输入组件后,可以将DataHub数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置DataHub输入组件。前提条件 已创建离线单条管道,详情请参见 通过单条管道创建集成任务。操作步骤 ...

配置DataHub输入组件

配置DataHub输入组件后,可以将DataHub数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置DataHub输入组件。前提条件 已创建离线单条管道,详情请参见 通过单条管道创建集成任务。操作步骤 ...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据库中读取的数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

配置DataHub输出组件

配置DataHub输出组件,可以将外部数据库中读取数据写入到DataHub,或从大数据平台对接的存储系统中将数据复制推送至DataHub,进行数据整合和再加工。本文为您介绍如何配置DataHub输出组件。前提条件 已创建DataHub数据源。具体操作,请参见...

配置ArgoDB输出组件

配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据库中读取的数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据库中读取的数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

配置API输出组件

配置API输出组件,可以将外部数据库中读取的数据写入到API,或从大数据平台对接的存储系统中将数据复制推送至API,进行数据整合和再加工。本文为您介绍如何配置API输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建API...

配置API输出组件

配置API输出组件,可以将外部数据库中读取的数据写入到API,或从大数据平台对接的存储系统中将数据复制推送至API,进行数据整合和再加工。本文为您介绍如何配置API输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建API...

配置Redis输出组件

配置Redis输出组件,可以将外部数据库中读取的数据写入到Redis,或从大数据平台对接的存储系统中将数据复制推送至Redis,进行数据整合和再加工。本文为您介绍如何配置Redis输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:...

配置Redis输出组件

配置Redis输出组件,可以将外部数据库中读取的数据写入到Redis,或从大数据平台对接的存储系统中将数据复制推送至Redis,进行数据整合和再加工。本文为您介绍如何配置Redis输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

配置OSS输出组件

配置OSS输出组件,可以将外部数据库中读取的数据写入到OSS,或从大数据平台对接的存储系统中将数据复制推送至OSS,进行数据整合和再加工。本文为您介绍如何配置OSS输出组件。前提条件 已创建OSS数据源。具体操作,请参见 创建OSS数据源。...

配置Kafka输入组件

配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...

配置Kafka输入组件

配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...

使用限制

计算引擎类型 选择设置 计算引擎设置需要提前采购计算引擎MaxCompute资源,系统以此来支持相关数据的建设工作。需要选择计算引擎类型(目前仅开放MaxCompute计算类型),配置计算引擎所在的集群,例如Endpoint等信息。系统以此来支持该计算...

创建Teradata数据

通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...

创建Teradata数据

通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...

产品简介

数据搬站迁云方案咨询 为客户提供原大数据系统上云迁移方案咨询服务,包括云上数据搬站架构规划、设计迁云方案服务。数据专家高阶培训 提供针对数据建设、管理、治理相关的高阶能力培训,涵盖离线/实时数仓体系建设管理、数仓建模...

资产质量概述

背景信息 面对各行各业日趋强烈的大数据建设、管理及应用的诉求,Dataphin应用场景的多样性及复杂性随之增加。因业务系统的原始数据的规范性无法得以保障,所以Dataphin需要定义数据分析的质量,以满足资产质量的时效性、准确性、完整性、...

资产质量概述

背景信息 面对各行各业日趋强烈的大数据建设、管理及应用的诉求,Dataphin应用场景的多样性及复杂性随之增加。因业务系统的原始数据的规范性无法得以保障,所以Dataphin需要定义数据分析的质量,以满足资产质量的时效性、准确性、完整性、...

管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

数仓构建流程

数据的业务含义存在较差异时,您可以创建不同的数据板块,让各成员独立管理不同的业务,后续数据仓库的建设将按照数据板块进行划分。在Dataphin中,项目可以归属至数据板块以实现规范建模功能,同一个数据板块中可能包含多个不同的项目...

逻辑结构说明

数据的业务含义存在较差异时,您可以创建不同的数据板块,让各成员独立管理不同的业务,后续数据仓库的建设将按照数据板块进行划分。主题域 数据域即主题域,是对某个主题分析后确定的主题边界。例如,商品域、交易域、会员域等。项目 ...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

质量规则模板类型

如果差异较,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建多条链路,以便数据出现异常时,能够及时切换。对于多链路之间的数据计算进度监控则可以发现一些数据滞留、统计偏差问题,提升实时...

质量规则模板类型

如果差异较,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建多条链路,以便数据出现异常时,能够及时切换。对于多链路之间的数据计算进度监控则可以发现一些数据滞留、统计偏差问题,提升实时...

实时研发基本流程概述

以下为数据流向的示意图:订单系统MySQL的数据通过Ververica Flink任务进行实时计算,实时汇总各产品类型的销售数量并写入另一个用于OLAP分析的MySQL数据库。通过BI工具(Quick BI等)读取MySQL中的数据,进行可视化分析。流程指引 使用...

实时研发基本流程概述

以下为数据流向的示意图:订单系统MySQL的数据通过Ververica Flink任务进行实时计算,实时汇总各产品类型的销售数量并写入另一个用于OLAP分析的MySQL数据库。通过BI工具(Quick BI等)读取MySQL中的数据,进行可视化分析。流程指引 使用...

SQL可视化图表

本文为您介绍不同类型图表的适用场景,辅助您快速选取合适的图表进行数据呈现和展示。折线图 折线图适用于展示在相等的时间间隔下数据的趋势走向,例如,分析商品销量随时间的变化,预测未来的销售情况。图例 数据要素 X轴 Y轴 拆分 说明 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用